Tłumacz Google z neuronowym silnikiem – by chińszczyznę było łatwiej pojąć

Czy zawodowi tłumacze powinni już szukać sobie nowej pracy, np.zostać kierowcami Ubera? Tak mogłoby się stać za sprawąnaukowców Google’a. Pochwalili się oni wykorzystaniem nowegosilnika Tłumacza Google, bazującego na sieciach neuronowych, którymiał pozwolić im na osiągnięcie jakości przekładów zbliżonejdo tych robionych przez ludzi biegłych w danej parze języków.

Tłumacz Google z neuronowym silnikiem – by chińszczyznę było łatwiej pojąć

29.09.2016 | aktual.: 29.09.2016 13:37

Przez ostatnie dziesięć lat Google Translate działało na baziealgorytmu translacji frazowej (PBMT). Tłumaczone były całe ciągisłów o różnej długości, co ciekawe niekoniecznie będącefrazami języka naturalnego, lecz raczej frazeologizmamiwychwyconymi metodami statystycznymi z korpusu dostępnych tekstów.

Teraz w usłudze translacyjnej z Mountain View debiutuje coś, conosi nazwę Google Neural Machine Translation system (GNMT). Torozwiązanie bazujące na rekurencyjnych sieciach neuronowych,odwzorowujących sekwencje wejściowe zdań na sekwencje wyjściowe(w innym języku): tutaj nie poszczególne związki frazeologiczne,lecz całość wprowadzonego tekstu jest jednostką translacji.

Pracowano nad tym kilka lat, a zastosowanie licznych technikoptymalizacji, związanych m.in. z tłumaczeniem rzadkich słów iprzetwarzaniem ogromnych zbiorów danych, przyniosły w końcuefekty, którymi zespół badaczy zechciał się pochwalić wartykule pt.Google's Neural Machine Translation System: Bridging the Gapbetween Human and Machine Translation. Opisuje on sieć neuronowąz pamięciąkrótkotrwałą o ośmiu warstwach kodowania i ośmiu warstwachdekodowania, w której dolna warstwa dekodera spięta jest górnąwarstwą kodera, oraz optymalizacjami dla obliczeń o niskiejprecyzji, które pozwoliły znacząco przyspieszyć jej działanie.

Pierwszą parą języków, jaką pracowano z GNMT, był angielskii chiński (mandaryński). Na powyższej animacji można zobaczyćjak to działa: sieć koduje w koderze chińskie słowa jako listęwektorów, gdzie każdy wektor przedstawia znaczenie wszystkichodczytanych dotąd słów. Po odczytaniu całego zdania, dekoderzaczyna generować angielskie słowa, jedno po drugim, uwzględniającrozkład ważony zakodowanych chińskich wektorów kluczowych dowygenerowania angielskiego słowa. Na animacji nasycenie kolorupołączenia przedstawia uwagę, jaką dekoder przykłada dozakodowanego słowa.

Badacze chwalą się, że debiut GNMT przypadł na wyjątkowotrudną parę języków, tj. chiński i angielski – obecnie TłumaczGoogle korzysta z tego silnika do wszystkich translacji tej paryjęzyków, tj. średnio 18 mln przekładów dziennie. Chwalą sięteż jakościąprzekładów, porównując je do osiągnięć silnika PBMT iprzekładu autorstwa człowieka, nie tylko dla parychiński-angielski, ale też par hiszpański-angielski,francuski-angielski i angielski-chiński, które obecnie są w fazietestowej.

Tłumaczu, zostań kierowcą Ubera?

Osiągnięcie niewątpliwie spore, tyle że przedstawioneprzykłady nie są specjalnie przekonujące. Po pierwsze,przestawienie chińskiego i angielskiego jako „wyjątkowo trudnejpary języków” jest wyjątkowo mało przekonujące, przynajmniej wpiśmie (a pismem się tu zajmujemy). Chińska gramatyka jest podobnado gramatyki angielskiej. Oba języki wykorzystują zdania typu SVO(podmiot-orzeczenie-dopełnienie), oba pozbawione są praktyczniefleksji, współczesny chiński nie ma nawet odmiany przez rodzajeczy liczby. Jeśli chcemy w chińskim powiedzieć, że coś wydarzyłosię w przeszłości, to do czasownika dodajemy po prostu odpowiedniznak-sufiks, dokładnie tak samo, jak w angielskim dodaje się (przyregularnej odmianie) sufiks „-ed”. Nie ma co nawet porównywaćtego do złożoności form fleksyjnych języków takich jak polskiczy rosyjski.

Po drugie, zaprezentowane przykłady są raczej trywialne.Fragmenty newsów z serwisów o tematyce biznesowej i politycznej czyzdania wyjęte z bajek – znaczenie wydaje się być zachowane, alejakość jest taka sobie. W tych testowych parach jest jeszcze mniejciekawie – zapytaliśmy dwie znajome koleżanki z Chin, co sądząo przekładach angielski-chiński, stwierdziły, że tak sobie,owszem, chyba rozumieją o co chodzi, ale to nie jest dobry chiński.

Trudno powiedzieć dziś, czy istnieje górna granica jakościmaszynowego tłumaczenia. Filozofowie języka wskazują nierzadko napodstawowy problem przekładu literatury w ten sposób: tłumacz wtym wypadku nie tłumaczy słowa po słowie, ani zdania po zdaniu,lecz w rzeczywistości opowiada treść w swoim języku, posiłkującsię intuicją i wyobraźnią językową. W praktyce buduje mostmiędzy kulturami, po którym przechodzą słowa języka naturalnego.

Tak więc poezja, humor, mistycyzm, a nawet zawiłości prawa idyplomacji – tego jeszcze długo nie uda się powierzyć maszynom.A być może nigdy się tego nie uda, chyba że te maszyny będążyły wśród nas i używały naszego języka w taki sam sposób jakmy. Słowa nie mają bowiem sztywnego znaczenia, lecz sąewoluującymi bytami, które w praktyce językowej nabierają nowychniuansów znaczeniowych i tracą stare. Co więcej, sama biegłośćw danym języku wiąże się z nabyciem niesformalizowanych nawykówjęzykowych, które nie zostały nigdzie zapisane, a które po prostusą, bo tak wszyscy mówią – i te nawyki różnią się międzyjęzykami, a nawet między dialektami języka. Dzisiaj, kiedykomunikują się ze sobą w Sieci ludzie przeróżnych kultur ijęzyków, widać to szczególnie mocno – nieporozumienia sączęste, a wyjaśnić tego w zwięzłości internetowych pogawędeknie ma gdzie.

Oczywiście dokumentacja techniczna, rozmówki turystyczne, proste sprawy biznesowe to zupełnie inna sprawa. Tutaj maszynowe translatory mogą się bardzo dobrze sprawdzić, a dostępne w każdym smartfonie uczynić globalną komunikację znacznie prostszą.

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (22)