23.04.7184
006.35 - Natural Language Processing, Computer Science
Karya Ilmiah - Skripsi (S1) - Reference
Natural Language Processing
577 kali
<p><a name="_Hlk145062519"><strong>Dengan semakin bertambah majunya teknologi permodelan NLP, aplikasi untuk menyelesaikan masalah pun bertambah. Dan dari teknologi struktur model tersebut, muncul model menggunakan struktur yang memiliki kapabilitas yang mirip, tapi menggunakan sumber daya komputasi yang lebih sedikit. Studi kasus jurnal ini berupa berita yang dikumpulkan menjadi dataset benchmark dalam Bahasa Indonesia untuk pelatihan dalam tugas meringkas secara ekstraktif. Dataset yang dipakai adalah liputan6 dan indosum. Kedua model Bert and distilBert digunakan untuk melakukan <em>downward task </em>tersebut untuk mengukur performansi. Tolak ukur yang dipakai adalah total waktu training, dan penggunaan sumber daya komputasi serta <em>training loss</em> dari <em>fine-tuning</em>. Hasil dari <em>fine-tuning</em> menunjukkan nilai akhir <em>training loss </em>dari model Bert dengan distilBert tidak jauh berbeda dengan distilBert memerlukan waktu lebih cepat dan sumber komputasi lebih sedikit.</strong></a></p>
Tersedia 1 dari total 1 Koleksi
Nama | HANSEL NATHANAEL PINONDANG |
Jenis | Perorangan |
Penyunting | Moch. Arif Bijaksana, Siti Sa'adah |
Penerjemah |
Nama | Universitas Telkom, S1 Informatika |
Kota | Bandung |
Tahun | 2023 |
Harga sewa | IDR 0,00 |
Denda harian | IDR 0,00 |
Jenis | Non-Sirkulasi |