OPTIMASI MODEL PERCAKAPAN BAHASA INDONESIA BERBASIS SEQUENCE TO SEQUENCE (SEQ2SEQ)

Made, Yohanes Dwiki Witman Gusti (2019) OPTIMASI MODEL PERCAKAPAN BAHASA INDONESIA BERBASIS SEQUENCE TO SEQUENCE (SEQ2SEQ). S1 thesis, UAJY.

[img]
Preview
Text (HALAMAN JUDUL)
TF077480.pdf

Download (768kB) | Preview
[img]
Preview
Text (BAB I)
TF077481.pdf

Download (148kB) | Preview
[img]
Preview
Text (BAB II)
TF077482.pdf

Download (124kB) | Preview
[img]
Preview
Text (BAB III)
TF077483.pdf

Download (435kB) | Preview
[img] Text (BAB IV)
TF077484.pdf
Restricted to Registered users only

Download (395kB)
[img] Text (BAB V)
TF077485.pdf
Restricted to Registered users only

Download (1MB)
[img]
Preview
Text (BAB VI)
TF077486.pdf

Download (181kB) | Preview

Abstract

Chatbot saat ini berkembang dengan kerangka kerja sequence-to-sequence (SEQ2SEQ) yang berbasiskan dua Recurrent Neural Network (2-RNN). Seiring waktu, tingkat kesulitan pelatihannya semakin kompleks karena pelatihan jangka panjang dengan RNN sangat rentan pada masalah hilang atau meledaknya gradien. Oleh karena itu, pelatihan dengan RNN akhir-akhir ini lebih fokus kepada upaya untuk mengatasi masalah hilang atau meledaknya gradien melalui langkah optimasi. Beberapa metode optimasi pernah diteliti sebelumnya pada kerangka kerja SEQ2SEQ, seperti mekanisme gerbang Long-Short Term Memory (LSTM) yang baik dalam pemahaman informasi secara lebih lama dan Gated Recurrent Unit (GRU) yang konvergensi pelatihannya cepat, mekanisme perhatian (Attention Mechanism) yang mengatasi masalah sekuens yang panjang, dan gradient descent yang menghasilkan model dengan tingkat kesalahan minimal. Perlu adanya penelitian terbaru yang mengungkapkan hasil gabungan dari ketiga optimasi tersebut untuk mencapai state-of-the-art dari model percakapan. Hasil penelitian ini menunjukkan performa optimasi model percakapan SEQ2SEQ berdasarkan nilai metrik accuracy, precision, recall, F1, dan loss dengan memakai sampel data dari OpenSubtitle 2018 Bahasa Indonesia. Penelitian ini juga berhasil menerapkan mekanisme gerbang yang berbeda pada encoder dan decoder model. Posisi optimal seluruh model terletak pada sampel 15 ribu dan epoch ke-50, dengan skor pengujian terbaik dihasilkan oleh model gerbang LSTM-LSTM, yaitu accuracy 71,59%, precision 86,95%, recall 66,37%, F1 75,25%, dan loss 2,664.

Item Type: Thesis (S1)
Uncontrolled Keywords: Chatbot, SEQ2SEQ, RNN, Optimasi, Bahasa Indonesia
Subjects: Teknik Informatika > Soft Computing
Divisions: Fakultas Teknologi Industri > Teknik Informatika
Depositing User: Editor UAJY
Date Deposited: 22 Jul 2019 02:17
Last Modified: 22 Jul 2019 02:17
URI: http://e-journal.uajy.ac.id/id/eprint/19485

Actions (login required)

View Item View Item