Nöral makine çevirisi (NMT), bir sözcük dizilim olasılığını tahmin etmek için yapay bir sinir ağı kullanan ve genellikle cümlenin tümünü tek bir entegre modelde modelleyen bir makine çevirisi yaklaşımıdır.
Özellikler
Geleneksel istatistiksel makine çevirisi (SMT) modellerinin ihtiyaç duyduğu belleğin yalnızca bir kısmını gerektirirler. Ayrıca, geleneksel çeviri sistemlerinden farklı olarak, sinirsel çeviri modelinin tüm parçaları, çeviri performansını en üst düzeye çıkarmak için birlikte (uçtan uca) eğitilirler.
Tarih
Derin öğrenme uygulamaları ilk olarak konuşma tanımada 1990'larda ortaya çıktı. Makine çevirisinde sinir ağlarının kullanımına ilişkin ilk bilimsel makale, Bahdanau vd ile Sutskever ve diğerlerinin uçtan uca sinir ağı çeviri modelleri önerdiği ve "sinirsel makine çevirisi" terimini kullandığı 2014 yılında ortaya çıkmıştır. İlk büyük ölçekli NMT sistemi, 2015 yılında Baidu tarafından piyasaya sürüldü. Ertesi yıl Google da bir NMT sistemi başlattı. Bunu takip eden birkaç yılda birçok gelişme izledi. (Geniş kelime dağarcığı olan NMT, Resim yazısı uygulaması, Alt Kelime-NMT, Çok Dilli NMT, Çok Kaynaklı NMT....) 2015 yılında halka açık bir makine çevirisi yarışmasında (OpenMT'15) ilk kez bir NMT sistemi ortaya çıktı. WMT'15 ayrıca ilk kez bir NMT yarışmacısına sahipti; zaten ertesi yıl kazananların % 90'ı NMT sistemlerine sahipti.
Avrupa Patent Ofisi, 2017'den beri küresel patent sistemindeki bilgileri anında erişilebilir kılmak için nöral makine çevirisi kullanmaktadır. Google ile ortaklaşa geliştirilen sistem 31 dil ile eşleştirilmiş ve 2018 yılı itibarıyla dokuz milyonun üzerinde dokümanı çevirmiştir.
Çalışmalar
NMT, ayrı tasarlanmış alt bileşenler kullanan "ifade tabanlı" istatistiksel yaklaşımlardan ayrılır. Nöral makine çevirisi, geleneksel olarak yapılan (SMT) ötesinde ciddi bir adım değildir. Ana çıkış noktası, kelimeler ve iç durumlar için vektör temsillerinin ("gömmeler", "sürekli uzay temsilleri") kullanılmasıdır. Modellerin yapısı cümle tabanlı modellere göre daha basittir. Ayrı bir dil modeli, çeviri modeli ve yeniden sıralama modeli yoktur, yalnızca her seferinde bir kelimeyi tahmin eden tek bir dizilim modeli vardır. Bununla birlikte, dizilim tahmini, kaynak cümle ve üretilmiş hedef dizinin tamamına bağlıdır. NMT modelleri derin ve temsili öğrenmeyi kullanır.
Başta, dizilim modellemesi tipik olarak tekrarlayan bir sinir ağı (RNN) kullanılarak yapıldı. Kodlayıcı olarak bilinen çift yönlü yinelenen sinir ağı, sinir ağı tarafından hedef dildeki kelimeleri tahmin etmek için kullanılan kod çözücü olarak bilinen ikinci bir RNN için, kaynak cümleyi kodlamak üzere kullanılır. Tekrarlayan sinir ağları, uzun girdileri tek bir vektöre kodlamada zorluklarla karşılaşır. Bu, dekoderin çıktının her kelimesini üretirken girdinin farklı bölümlerine odaklanmasını sağlayan bir dikkat mekanizması ile telafi edilebilir. Aşırı veya eksik çeviriye yol açan geçmiş hizalama bilgilerinin göz ardı edilmesi gibi, bu tür dikkat mekanizmalarındaki sorunları ele alan başka Kapsama Modelleri de vardır.
Konvolüsyonel Sinir Ağları (Convnet's) prensipte uzun dizilimler için biraz daha iyiydi, ancak birkaç zayıflık nedeniyle başta kullanılmamıştır. Bu zayıflıklar 2017 yılında "dikkat mekanizmaları" kullanılarak başarıyla telafi edildi.
"Dikkat tabanlı" bir model olan , birkaç dil çifti için baskın mimari olmaya devam ediyor. Transformer modelinin öz-dikkat katmanları, eşleştirilmiş dizilerdeki sözcükler arasındaki tüm bağlantıları inceleyerek ve bu ilişkileri doğrudan modelleyerek bir dizideki sözcükler arasındaki bağımlılıkları öğrenir. RNN'lerin kullandığı geçiş mekanizmasından daha basit bir yaklaşım. Sadeliği, araştırmacıların düşük kaynak ayarlarında bile Transformer modeliyle yüksek kaliteli çeviri modelleri geliştirmelerini sağladı.
Uygulamalar
NMT için bir uygulama, eğitim için yalnızca az miktarda veri ve örnek bulunan Akadca, onun lehçeleri, Babilce ve Asurca gibi eski dillerdir.
Notlar
- ^ Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. In: Proceedings of the 3rd International Conference on Learning Representations; 2015 May 7–9; San Diego, USA; 2015.
- ^ Sutskever I, Vinyals O, Le QV. Sequence to sequence learning with neural networks. In: Proceedings of the 27th International Conference on Neural Information Processing Systems; 2014 Dec 8–13; Montreal, QC, Canada; 2014.
Kaynakça
- ^ Haifeng Wang, Hua Wu, Zhongjun He, Liang Huang, Kenneth Ward Church Progress in Machine Translation // Engineering (2021), doi: https://doi.org/10.1016/j.eng.2021.03.023
- ^ Tu. "Modeling Coverage for Neural Machine Translation". arXiv:1601.04811 $2.
- ^ Barrault (Ağustos 2019). "Findings of the 2019 Conference on Machine Translation (WMT19)". Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1). Florence, Italy: Association for Computational Linguistics: 1-61. doi:10.18653/v1/W19-5301. Erişim tarihi: 2 Ağustos 2023.
- ^ Gutherz, Gai; Gordin, Shai (2 Mayıs 2023). "Translating Akkadian to English with neural machine translation". PNAS Nexus (İngilizce). 2 (5). doi:10.1093/pnasnexus/pgad096. ISSN 2752-6542. (PMC) 10153418 $2. (PMID) 37143863. 27 Mayıs 2023 tarihinde kaynağından . Erişim tarihi: 31 Temmuz 2023.
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Noral makine cevirisi NMT bir sozcuk dizilim olasiligini tahmin etmek icin yapay bir sinir agi kullanan ve genellikle cumlenin tumunu tek bir entegre modelde modelleyen bir makine cevirisi yaklasimidir OzelliklerGeleneksel istatistiksel makine cevirisi SMT modellerinin ihtiyac duydugu bellegin yalnizca bir kismini gerektirirler Ayrica geleneksel ceviri sistemlerinden farkli olarak sinirsel ceviri modelinin tum parcalari ceviri performansini en ust duzeye cikarmak icin birlikte uctan uca egitilirler TarihDerin ogrenme uygulamalari ilk olarak konusma tanimada 1990 larda ortaya cikti Makine cevirisinde sinir aglarinin kullanimina iliskin ilk bilimsel makale Bahdanau vd ile Sutskever ve digerlerinin uctan uca sinir agi ceviri modelleri onerdigi ve sinirsel makine cevirisi terimini kullandigi 2014 yilinda ortaya cikmistir Ilk buyuk olcekli NMT sistemi 2015 yilinda Baidu tarafindan piyasaya suruldu Ertesi yil Google da bir NMT sistemi baslatti Bunu takip eden birkac yilda bircok gelisme izledi Genis kelime dagarcigi olan NMT Resim yazisi uygulamasi Alt Kelime NMT Cok Dilli NMT Cok Kaynakli NMT 2015 yilinda halka acik bir makine cevirisi yarismasinda OpenMT 15 ilk kez bir NMT sistemi ortaya cikti WMT 15 ayrica ilk kez bir NMT yarismacisina sahipti zaten ertesi yil kazananlarin 90 i NMT sistemlerine sahipti Avrupa Patent Ofisi 2017 den beri kuresel patent sistemindeki bilgileri aninda erisilebilir kilmak icin noral makine cevirisi kullanmaktadir Google ile ortaklasa gelistirilen sistem 31 dil ile eslestirilmis ve 2018 yili itibariyla dokuz milyonun uzerinde dokumani cevirmistir CalismalarNMT ayri tasarlanmis alt bilesenler kullanan ifade tabanli istatistiksel yaklasimlardan ayrilir Noral makine cevirisi geleneksel olarak yapilan SMT otesinde ciddi bir adim degildir Ana cikis noktasi kelimeler ve ic durumlar icin vektor temsillerinin gommeler surekli uzay temsilleri kullanilmasidir Modellerin yapisi cumle tabanli modellere gore daha basittir Ayri bir dil modeli ceviri modeli ve yeniden siralama modeli yoktur yalnizca her seferinde bir kelimeyi tahmin eden tek bir dizilim modeli vardir Bununla birlikte dizilim tahmini kaynak cumle ve uretilmis hedef dizinin tamamina baglidir NMT modelleri derin ve temsili ogrenmeyi kullanir Basta dizilim modellemesi tipik olarak tekrarlayan bir sinir agi RNN kullanilarak yapildi Kodlayici olarak bilinen cift yonlu yinelenen sinir agi sinir agi tarafindan hedef dildeki kelimeleri tahmin etmek icin kullanilan kod cozucu olarak bilinen ikinci bir RNN icin kaynak cumleyi kodlamak uzere kullanilir Tekrarlayan sinir aglari uzun girdileri tek bir vektore kodlamada zorluklarla karsilasir Bu dekoderin ciktinin her kelimesini uretirken girdinin farkli bolumlerine odaklanmasini saglayan bir dikkat mekanizmasi ile telafi edilebilir Asiri veya eksik ceviriye yol acan gecmis hizalama bilgilerinin goz ardi edilmesi gibi bu tur dikkat mekanizmalarindaki sorunlari ele alan baska Kapsama Modelleri de vardir Konvolusyonel Sinir Aglari Convnet s prensipte uzun dizilimler icin biraz daha iyiydi ancak birkac zayiflik nedeniyle basta kullanilmamistir Bu zayifliklar 2017 yilinda dikkat mekanizmalari kullanilarak basariyla telafi edildi Dikkat tabanli bir model olan birkac dil cifti icin baskin mimari olmaya devam ediyor Transformer modelinin oz dikkat katmanlari eslestirilmis dizilerdeki sozcukler arasindaki tum baglantilari inceleyerek ve bu iliskileri dogrudan modelleyerek bir dizideki sozcukler arasindaki bagimliliklari ogrenir RNN lerin kullandigi gecis mekanizmasindan daha basit bir yaklasim Sadeligi arastirmacilarin dusuk kaynak ayarlarinda bile Transformer modeliyle yuksek kaliteli ceviri modelleri gelistirmelerini sagladi UygulamalarNMT icin bir uygulama egitim icin yalnizca az miktarda veri ve ornek bulunan Akadca onun lehceleri Babilce ve Asurca gibi eski dillerdir Notlar Bahdanau D Cho K Bengio Y Neural machine translation by jointly learning to align and translate In Proceedings of the 3rd International Conference on Learning Representations 2015 May 7 9 San Diego USA 2015 Sutskever I Vinyals O Le QV Sequence to sequence learning with neural networks In Proceedings of the 27th International Conference on Neural Information Processing Systems 2014 Dec 8 13 Montreal QC Canada 2014 Kaynakca Haifeng Wang Hua Wu Zhongjun He Liang Huang Kenneth Ward Church Progress in Machine Translation Engineering 2021 doi https doi org 10 1016 j eng 2021 03 023 Tu Modeling Coverage for Neural Machine Translation arXiv 1601 04811 2 Barrault Agustos 2019 Findings of the 2019 Conference on Machine Translation WMT19 Proceedings of the Fourth Conference on Machine Translation Volume 2 Shared Task Papers Day 1 Florence Italy Association for Computational Linguistics 1 61 doi 10 18653 v1 W19 5301 Erisim tarihi 2 Agustos 2023 Gutherz Gai Gordin Shai 2 Mayis 2023 Translating Akkadian to English with neural machine translation PNAS Nexus Ingilizce 2 5 doi 10 1093 pnasnexus pgad096 ISSN 2752 6542 PMC 10153418 2 PMID 37143863 27 Mayis 2023 tarihinde kaynagindan Erisim tarihi 31 Temmuz 2023