Terjemahan mesin saraf (NMT) adalah pendekatan penerjemahan mesin yang menggunakan jaringan saraf tiruan untuk memprediksi kemungkinan urutan kata, biasanya memodelkan dan kemudian menerjemahkan seluruh kalimat dalam satu model yang terintegrasi.
Sistem NMT hanya membutuhkan sebagian kecil dari memori yang dibutuhkan oleh model terjemahan mesin statistik (SMT) tradisional. Selain itu, tidak seperti sistem penerjemahan konvensional, semua bagian dari model penerjemahan neural dilatih secara bersama-sama (end-to-end) untuk memaksimalkan kinerja penerjemahan.[1][2][3]
Makalah ilmiah pertama tentang penggunaan jaringan saraf dalam penerjemahan mesin muncul pada tahun 2014 ketika Bahdanau et al.[R 1] and Sutskever et al.[R 2] mengusulkan model penerjemahan jaringan saraf tiruan ujung ke ujung dan secara resmi menggunakan frasa "penerjemahan mesin saraf" dalam penelitian mereka. Sistem NMT berskala besar pertama diluncurkan oleh Baidu pada tahun 2015. Tahun berikutnya Google dan organisasi lain meluncurkan berbagai sistem NMT.[4] Sistem ini diikuti oleh kemajuan substansial pada tahun-tahun berikutnya. Kemajuan ini meliputi: NMT kosakata besar, aplikasi untuk teks gambar, NMT subkata, NMT multibahasa, NMT multisumber, NMT tingkat karakter, NMT tanpa sumber daya, dan NMT tanpa pemotretan. Pada tahun 2015, untuk pertama kalinya sistem NMT tampil dalam dua kompetisi penerjemahan mesin publik (OpenMT'15 dan WMT'15). Tahun berikutnya, 90% pemenang di WMT adalah sistem NMT.[5]
Sejak 2017, Kantor Paten Eropa telah menggunakan terjemahan mesin saraf untuk membuat informasi dari sistem paten global dapat diakses secara instan.[6] Sistem yang dikembangkan bekerja sama dengan Google ini dipasangkan dengan 31 bahasa, dan pada tahun 2018, sistem ini telah menerjemahkan lebih dari sembilan juta dokumen.[6]
Sistem NMT menggunakan pembelajaran mendalam dan pembelajaran representasi dan berangkat dari pendekatan terjemahan mesin statistik berbasis frasa yang menggunakan subkomponen yang direkayasa secara terpisah dengan mempertimbangkan keseluruhan kalimat.[7] Penerjemahan mesin saraf (NMT) mirip dengan apa yang telah dilakukan secara tradisional dalam penerjemahan mesin statistik (SMT). Perbedaan utama antara NMT dan SMT adalah penggunaan representasi vektor ("penyematan" dan "representasi ruang lanjutan") untuk kata dan status internal. Struktur model dalam sistem NMT lebih sederhana daripada model berbasis frasa. Tidak ada model bahasa, model terjemahan, dan model pengurutan ulang yang terpisah, tetapi hanya satu model urutan yang memprediksi satu kata dalam satu waktu. Namun, prediksi urutan ini dikondisikan pada seluruh kalimat sumber dan urutan target yang sudah diproduksi.
Pemodelan urutan kata dalam sistem NMT, pada awalnya, biasanya dilakukan dengan menggunakan jaringan syaraf tiruan berulang (RNN). Sebuah jaringan saraf tiruan dua arah, yang dikenal sebagai encoder, digunakan oleh jaringan saraf untuk mengkodekan kalimat sumber untuk RNN kedua, yang dikenal sebagai decoder, yang digunakan untuk memprediksi kata-kata dalam bahasa target (terjemahan).[8] RNN kesulitan untuk mengkodekan input yang panjang ke dalam satu vektor. Hal ini dapat diatasi dengan menggunakan mekanisme perhatian[9] yang memungkinkan decoder untuk fokus pada bagian input yang berbeda saat menghasilkan setiap kata. Model Cakupan lebih lanjut menangani masalah dalam mekanisme perhatian ini, seperti mengabaikan informasi penyelarasan sebelumnya yang menyebabkan terjemahan berlebih dan terjemahan kurang.[10]
Convolutional Neural Networks (CNN), pada prinsipnya, agak lebih baik untuk sekuens yang panjang dan berkesinambungan, tetapi pada awalnya tidak digunakan karena beberapa kelemahan, tetapi banyak di antaranya telah diatasi dengan pengembangan "mekanisme perhatian".[11]
Sistem Transformer[12], yang merupakan model berbasis perhatian, tetap menjadi arsitektur yang dominan untuk beberapa pasangan bahasa.[13] Lapisan perhatian diri dari model Transformer mempelajari ketergantungan antara kata-kata dalam sebuah urutan dengan memeriksa hubungan antara semua kata dalam urutan berpasangan dan dengan secara langsung memodelkan hubungan tersebut. Ini adalah pendekatan yang lebih sederhana daripada mekanisme gating yang digunakan RNN. Dan kesederhanaannya telah memungkinkan para peneliti untuk mengembangkan model penerjemahan berkualitas tinggi dengan model Transformer, bahkan dalam pengaturan sumber daya yang rendah.[14]
Salah satu aplikasi untuk NMT adalah terjemahan mesin dengan sumber daya rendah, ketika hanya sedikit data dan contoh yang tersedia untuk pelatihan. Salah satu kasus penggunaan tersebut adalah bahasa-bahasa kuno seperti Akkadia dan dialek-dialeknya, Babilonia dan Asyur.[15]
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama KalchbrennerBlunsom
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama sequence
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama Properties
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama WMT16
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama vid
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama Medical
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama align&translate
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama attention
<ref>
tidak sah;
tidak ditemukan teks untuk ref bernama DeepL
|pmc=
(bantuan). PMID 37143863 Periksa nilai |pmid=
(bantuan).