PERBANDINGAN PERFORMA MODEL INDOBERT DAN PEGASUS UNTUK PERINGKASAN TEKS ABSTRAKTIF PADA DATASET ARTIKEL BERITA ONLINE BERBAHASA INDONESIA

DIATMIKA, KETUT TUTUR (2026) PERBANDINGAN PERFORMA MODEL INDOBERT DAN PEGASUS UNTUK PERINGKASAN TEKS ABSTRAKTIF PADA DATASET ARTIKEL BERITA ONLINE BERBAHASA INDONESIA. Undergraduate thesis, Universitas Pendidikan Ganesha.

[img] Text (COVER)
2015101011-COVER.pdf

Download (7MB)
[img] Text (ABSTRAK)
2015101011-ABSTRAK.pdf

Download (7MB)
[img] Text (BAB I PENDAHULUAN)
2015101011-BAB I PENDAHULUAN.pdf

Download (7MB)
[img] Text (BAB II KAJIAN TEORI)
2015101011-BAB II KAJIAN TEORI.pdf
Restricted to Repository staff only

Download (7MB) | Request a copy
[img] Text (BAB III METODE PENELITIAN)
2015101011-BAB III METODE PENELITIAN.pdf
Restricted to Repository staff only

Download (7MB) | Request a copy
[img] Text (BAB IV HASIL DAN PEMBAHASAN)
2015101011-BAB IV HASIL DAN PEMBAHASAN.pdf
Restricted to Repository staff only

Download (7MB) | Request a copy
[img] Text (BAB V PENUTUP)
2015101011-BAB V PENUTUP.pdf
Restricted to Repository staff only

Download (7MB) | Request a copy
[img] Text (DAFTAR PUSTAKA)
2015101011-DAFTAR PUSTAKA.pdf

Download (7MB)
[img] Text (LAMPIRAN)
2015101011-LAMPIRAN.pdf

Download (7MB)

Abstract

Penelitian ini bertujuan untuk membandingkan performa dua model berbasis Transformer, yaitu IndoBERT+GPT-2 decoder dan PEGASUS-Large, dalam tugas peringkasan teks abstraktif pada artikel berita berbahasa Indonesia. Dataset yang digunakan adalah Indonesian News Dataset dari Kaggle dengan jumlah awal 32.148 data, yang setelah melalui tahap pre-processing menjadi 29.985 pasangan teks dan ringkasan. Data dibagi menjadi tiga bagian dengan proporsi 70% untuk pelatihan, 15% untuk validasi, dan 15% untuk pengujian. Metodologi penelitian meliputi tahapan pre-processing, implementasi model, pelatihan, inferensi, serta evaluasi menggunakan metrik ROUGE (ROUGE-1, ROUGE-2, ROUGE-L), BERTScore-F1, dan METEOR. IndoBERT diimplementasikan dalam arsitektur encoder-decoder dengan GPT-2 sebagai decoder, sedangkan PEGASUS-Large dilatih menggunakan pendekatan LoRA untuk mengatasi keterbatasan sumber daya komputasi.Hasil penelitian menunjukkan bahwa IndoBERT+GPT-2 decoder unggul pada seluruh metrik evaluasi dibandingkan PEGASUS-Large. Skor ROUGE-2 yang lebih tinggi menegaskan kemampuan model dalam menangkap struktur frasa dua kata berurutan, sementara skor BERTScore dan METEOR yang lebih baik menunjukkan kesesuaian semantik dan kualitas parafrase yang lebih tinggi. Analisis kualitatif berbasis case-by-case juga memperlihatkan bahwa IndoBERT lebih konsisten menghasilkan ringkasan kategori Top, sedangkan PEGASUS cenderung menghasilkan lebih banyak ringkasan kategori Divergent dan Bottom. Temuan ini menegaskan bahwa model monolingual yang dilatih khusus untuk bahasa Indonesia memiliki keunggulan dalam tugas peringkasan teks dibandingkan model generik yang diadaptasi.

Item Type: Thesis (Undergraduate)
Uncontrolled Keywords: IndoBERT, PEGASUS, peringkasan teks, NLP, METEOR
Subjects: T Technology > T Technology (General)
Divisions: Fakultas Teknik dan Kejuruan > Jurusan Teknik Informatika > Program Studi Ilmu Komputer (S1)
Depositing User: Ketut Tutur Diatmika
Date Deposited: 10 Feb 2026 13:56
Last Modified: 10 Feb 2026 13:56
URI: http://repo.undiksha.ac.id/id/eprint/28075

Actions (login required)

View Item View Item