Egy neurális háló fogta magát, és megtanult angolról franciára fordítani
„Képzeljük el, hogy valaki kap egy rakás különböző arab, illetve kínai könyvet anélkül, hogy bármelyik nyelvet beszélné. A feladat az, hogy tanuljon meg kínairól arabra fordítani. Lehetetlennek tűnik, ugye? A számítógép mégis képes rá” – idézi a Science Mikel Artetxét, a San Sebastian-i baszk egyetem, az Universidad del País Vasco (baszkul: Euskal Herriko Unibertsitatea) informatikai tanszékének tanárát. Tanszéki munkatársaival és egy New York-i kollégájával közösen jegyzett, a Conference on Learning Representations című gépi tanulással foglalkozó 2018-as világkonferencián bemutatandó tanulmányuk a neurális gépi fordítás (neural machine translation, NMT) legújabb sikersztorija. A baszk kutatók neurális hálózata emberi felügyelet és szótár nélkül tanult meg franciáról angolra, aztán pedig angolról franciára fordítani.
Hasonló eredményt ért el a Facebook párizsi mesterségesintelligencia-laborjának és a Sorbonne informatikai tanszékének tagjaiból verbuválódott kutatócsoport. A Science cikkében ismertetett tanulmányukat a fenti konferencia szervezőbizottsága szintén elfogadta. A fordítás egyik legelfogadottabb minőségi szabványának tartott BiLingual Evaluation Understudy (BLEU) rendszerében mindkét módszer 15 pontot ért el. A jelenlegi fordítóprogramok 40-es, vagy a profi szak- és műfordítók 50-es indexeivel összehasonlítva ez igencsak szerény eredmény, de a baszk és a francia kutatók szerint első próbálkozásnak megteszi. Elmondták: miután pár ezer példamondatot mutattak az addig több tízmillió szóösszetételt feldolgozó géptolmácsaiknak, azok sokkal jobb minőségű fordításokat produkáltak.
Mi fán terem a gépi fordítás?
„A neural machine translation (NMT) egyértelműen 2017 legdivatosabb kifejezése lett a fordítóipar különböző szereplői – szabadúszók, fordítóirodák, fordításokat beszerző cégek – és mindenekelőtt a számítógépes nyelvészettel foglalkozók körében” – vezeti fel a témát az évi 80 ezer oldalnyi szöveg átültetésével a legnagyobb nem állami magyar fordítóirodának számító szegedi Hunnect szakmai blogja.
A nyelvtani szabályok és egy szótár segítségével működő szabályalapú, illetve az egyes szavak és kifejezések célnyelvi megfelelőjét a már meglévő fordítások alapján logikai lépésekkel kikövetkeztető példaalapú metódusokat a 2000-es évek elejére tette elavulttá a mára elterjedté vált statisztikai gépi fordítás (SMT). Ez a technológia hatalmas, egy- vagy kétnyelvű szövegeken (szakszóval: korpuszokon) keresztül, az előfordulási statisztikák alapján próbálta kikövetkeztetni a szavak és szókapcsolatok helyes fordítását. „A Google Translate egészen 2017 elejéig minden nyelvpárban statisztikai gépi fordítást használt (habár bizonyos ritkább nyelvpárokban a kétnyelvű korpuszok híján egy köztes angol fordításra is sor került)” – olvasható az idézett szakblogon. (A Google fordítójának – szexistának is mondott – hibáiról nemrégiben a Qubit is hírt adott.)
A gond ezekkel – és az ötvözésükkel kreált többféle hibrid megoldással – az, hogy nyelvtanilag többnyire helytelen mondatokat produkálnak, minden terminusnak a legalapvetőbb vagy legnépszerűbb jelentését részesítik előnyben, és nem képesek visszaadni az árnyaltabb jelentéseket. A finomhangolásuk ugyan lehetséges, de ennek ellenére mindegyik modell szegmenseket (mondatokat) fordít, a nagyobb összefüggéseket nem veszik figyelembe. „Sőt, szegmensen belül is tovább szegmentál (kissé leegyszerűsítve: a lehető leghosszabb egyező mondatrészt keresi, ami már megvan a korpuszban), és ezen mondatrészek fordításai sincsenek hatással egymásra. Laikusoknak sem kell magyarázni, hogy miért óriási hátrány ez egy összefüggő, folyó szöveg fordításánál. Az SMT sokak szerint elérte teljesítőképessége határát, és finomhangolás nélkül (amely persze jelentős idő- és pénzráfordítást is igényel) már nem képes szignifikáns javulásra” – összegzi a technológia korlátait a Hunnect.
A neurális hálózat mint szupertolmács
A kutatók szerint a felügyelet nélküli neurális gépi fordítás során a mesterséges intelligencia autonóm módon elkészíti saját szótárát a belétáplált egynyelvű korpuszok alapján. Pontosabban afféle több dimenziós térképet készít az adott nyelvből. „Az asztalt és a széket jelentő szavak a legtöbb nyelvben nagyon gyakran szerepelnek egy mondatban. A nyelvi atlasz az ilyen kapcsolatok alapján készül el” – próbálja szemléltetni a lényeget a már idézett Artetxe. A fordítás során a szótártérképek egyezései, illetve különbségei adnak támpontot, ám ez még szerény eredményre vezetne. A baszk és a francia megoldás is ellenőrzi önmagát: a kész szöveg előállítása során visszafordítja találatait az eredeti nyelvre, és ha azok nem passzolnak az alapszöveghez, vagy megváltozik a kontextus, hát korrigálnak.
„Anélkül, hogy a részletekbe és a számítógépes nyelvészet mélyebb bugyraiba beleásnánk, körülbelül úgy lehet megmagyarázni a folyamatot, hogy a gép gyakorlatilag megpróbálja leképezni a forrásszöveg jelentését egy nyelvtől független szinten, majd ezt a szintet „újrafogalmazza” a célnyelven. Sokkal kevésbé kötődik szószinten és strukturálisan a forrásszöveghez, és éppen ezért sokkal kevesebb szórendi és ragozási-egyeztetési hibát vét, mint például a statisztikai gépi fordítás” – próbál közelebb vinni a lényeghez a magyar szakblog.
A számítógépes nyelvészeten belüli vélemények szerint bizonyos területeken –elsősorban a technikai jellegű szakszövegek és a hasonló sémára épülő, adott szakterületet érintő szövegek esetében – átveheti az embertől az uralmat az NMT, de a magyarhoz hasonló ritka nyelvekkel foglalkozóknak és a műfordítóknak nincs még mitől tartaniuk.