DIATMIKA, KETUT TUTUR (2026) PERBANDINGAN PERFORMA MODEL INDOBERT DAN PEGASUS UNTUK PERINGKASAN TEKS ABSTRAKTIF PADA DATASET ARTIKEL BERITA ONLINE BERBAHASA INDONESIA. Undergraduate thesis, Universitas Pendidikan Ganesha.
|
Text (COVER)
2015101011-COVER.pdf Download (7MB) |
|
|
Text (ABSTRAK)
2015101011-ABSTRAK.pdf Download (7MB) |
|
|
Text (BAB I PENDAHULUAN)
2015101011-BAB I PENDAHULUAN.pdf Download (7MB) |
|
|
Text (BAB II KAJIAN TEORI)
2015101011-BAB II KAJIAN TEORI.pdf Restricted to Repository staff only Download (7MB) | Request a copy |
|
|
Text (BAB III METODE PENELITIAN)
2015101011-BAB III METODE PENELITIAN.pdf Restricted to Repository staff only Download (7MB) | Request a copy |
|
|
Text (BAB IV HASIL DAN PEMBAHASAN)
2015101011-BAB IV HASIL DAN PEMBAHASAN.pdf Restricted to Repository staff only Download (7MB) | Request a copy |
|
|
Text (BAB V PENUTUP)
2015101011-BAB V PENUTUP.pdf Restricted to Repository staff only Download (7MB) | Request a copy |
|
|
Text (DAFTAR PUSTAKA)
2015101011-DAFTAR PUSTAKA.pdf Download (7MB) |
|
|
Text (LAMPIRAN)
2015101011-LAMPIRAN.pdf Download (7MB) |
Abstract
Penelitian ini bertujuan untuk membandingkan performa dua model berbasis Transformer, yaitu IndoBERT+GPT-2 decoder dan PEGASUS-Large, dalam tugas peringkasan teks abstraktif pada artikel berita berbahasa Indonesia. Dataset yang digunakan adalah Indonesian News Dataset dari Kaggle dengan jumlah awal 32.148 data, yang setelah melalui tahap pre-processing menjadi 29.985 pasangan teks dan ringkasan. Data dibagi menjadi tiga bagian dengan proporsi 70% untuk pelatihan, 15% untuk validasi, dan 15% untuk pengujian. Metodologi penelitian meliputi tahapan pre-processing, implementasi model, pelatihan, inferensi, serta evaluasi menggunakan metrik ROUGE (ROUGE-1, ROUGE-2, ROUGE-L), BERTScore-F1, dan METEOR. IndoBERT diimplementasikan dalam arsitektur encoder-decoder dengan GPT-2 sebagai decoder, sedangkan PEGASUS-Large dilatih menggunakan pendekatan LoRA untuk mengatasi keterbatasan sumber daya komputasi.Hasil penelitian menunjukkan bahwa IndoBERT+GPT-2 decoder unggul pada seluruh metrik evaluasi dibandingkan PEGASUS-Large. Skor ROUGE-2 yang lebih tinggi menegaskan kemampuan model dalam menangkap struktur frasa dua kata berurutan, sementara skor BERTScore dan METEOR yang lebih baik menunjukkan kesesuaian semantik dan kualitas parafrase yang lebih tinggi. Analisis kualitatif berbasis case-by-case juga memperlihatkan bahwa IndoBERT lebih konsisten menghasilkan ringkasan kategori Top, sedangkan PEGASUS cenderung menghasilkan lebih banyak ringkasan kategori Divergent dan Bottom. Temuan ini menegaskan bahwa model monolingual yang dilatih khusus untuk bahasa Indonesia memiliki keunggulan dalam tugas peringkasan teks dibandingkan model generik yang diadaptasi.
| Item Type: | Thesis (Undergraduate) |
|---|---|
| Uncontrolled Keywords: | IndoBERT, PEGASUS, peringkasan teks, NLP, METEOR |
| Subjects: | T Technology > T Technology (General) |
| Divisions: | Fakultas Teknik dan Kejuruan > Jurusan Teknik Informatika > Program Studi Ilmu Komputer (S1) |
| Depositing User: | Ketut Tutur Diatmika |
| Date Deposited: | 10 Feb 2026 13:56 |
| Last Modified: | 10 Feb 2026 13:56 |
| URI: | http://repo.undiksha.ac.id/id/eprint/28075 |
Actions (login required)
![]() |
View Item |
