A Facebook saját kutatói szerint is veszélyes lehet a cég frissen kiadott, rasszista és nőgyűlölő mesterséges intelligenciája
A mesterséges intelligencia (AI) különböző területeinek fejleményeit nehéz követni, bár a meglehetősen központosult techvilágban legalább az megvan, hogy kire kell figyelni. A célirányos AI-technológiákat fejlesztő, főként kínai vállalatok (mint a drónóriás DJI vagy a gépi látásban és arcfelismerésben vezető SenseTime) mellett ott a nonprofitként és függetlenként indult, de egyre Microsoft-közelibb OpenAI, na meg persze a nagy ötös: az Apple és az Amazon (úgy is mint: Siri és Alexa), a Microsoft, de leginkább a két igazi óriás, az egykor Facebook és Google néven ismert Meta és Alphabet.
Ehhez a két céghez kötődnek az elmúlt tíz év legnagyobb hatású AI-fejlesztései, amelyek alapjaiban változtatták meg a számítógépek és az internet működését, és velük együtt egész életünket. A keresőmotoron, a hírfolyamon és a célzott hirdetéseken túl komplett céges divíziók dolgoznak olyan technológiákon, amelyek ma még túl futurisztikusnak tűnnek, és igyekeznek megoldani olyan problémákat, amelyek emberi léptékkel megoldhatatlannak tűnnek. A Google, közelebbről a cég által 2014-ben felvásárolt DeepMind forradalmi eredményeiről (például sakkozó, videójátékos vagy fehérjehajtogató algoritmusokról) már a Qubiten is sokat írtunk, a 444 nemrég a két csapat legfrissebb fejlesztéseiről is beszámolt; most a Facebookon a sor.
Azon a Facebookon, pontosabban annak mesterséges intelligenciával foglalkozó ágán, a Meta AI-n (korábbi nevén Facebook Artificial Intelligence Research, vagyis FAIR), amely 2013-as alapítása óta a szakma legnagyobbjainak vezetésével folytat AI-kutatásokat – a csapatból kiugrott, és saját AI-startupjaikkal kaszáló munkatársak száma már most jelentős. A Facebook- és Instagram-feedek poszt- és hirdetés-rangsoroló rendszerein, az arcfelismerő mechanizmusokon vagy a, hogy is mondjuk, kreatív adatfelhasználási technikákon túl is számtalan úttörő technológia fűződik a cég nevéhez, de a tevékenységére leginkább jellemző példa mégis a következő.
A FAIR 2017-ben leállított egy kísérletet, miután mesterséges intelligenciával felruházott botok olyan saját nyelven kezdtek egymással beszélgetni, amit az emberek nem értettek. A média egy része ezt egyből úgy tálalta, hogy félelemből vetettek véget a projektnek, mert elszabadult a mesterséges intelligencia. Mint a FAIR később közölte, azért állította le a kutatást, mert az elérte a célját, ami eredetileg az volt, hogy a két bot egyetértésre jusson egy vitában. Hogy ezt nem akarták a humánok előtt, angolul elintézni, az más kérdés.
Mostanában, ahogy az egész Meta, úgy természetesen az AI-divízió is metaverzumlázban ég, és februári bejelentése szerint olyan technológiákon dolgozik, mint a BuilderBot, amely szóbeli utasításra képes bármit létrehozni a virtuális világban, vagy olyan eszközökön, amelyek képesek valós időben lefordítani egy szóban történő beszélgetést, bármilyen nyelven beszélő felhasználók között. És hogy valójában milyen erős az ilyen kommunikációs fejlesztésekben a Meta AI, azt legutóbb május elején mutatta meg, egy OPT-175B nevű nyelvi modellel.
A gép nyelve
A természetes nyelvek feldolgozása (Natural Language Processing, NLP) az AI-kutatások egyik legforróbb területe, mivel ez foglalkozik azzal, hogy a gépek hogyan képesek gigantikus mennyiségű, nem programnyelven, hanem emberi nyelven írt (vagy kimondott) adatot feldolgozni, megérteni, és ami még fontosabb, reprodukálni. Hogy ez megtörténhessen, vagyis egy gép megértse az embert a nyelven keresztül, nyelvi modellek alkotására van szükség.
Mivel a nyelvi modell egy bonyolult matematikai-statisztikai-nyelvészeti termék, úgy a legegyszerűbb bemutatni, mire képes, hogy különböző életszagú alkalmazásokat gyártanak hozzá. Ilyen például a DeepMind középiskolás feladatsorokon jól teljesítő Gopherje, de a legismertebb példa mégis csak az OpenAI 2020-ban bemutatott, 175 milliárd nyelvi paraméterből dolgozó, GPT-3 nevű modellje. Ezt a tesztelők arra használhatták, hogy esszét írassanak vele egy adott témában, fiktív dalszöveget kedvenc előadójuk stílusában, vagy épp csetelés közben életvezetési tanácsokat kérjenek tőle – az egyöntetű vélemények szerint a GPT-3 ijesztően pontosnak és kreatívnak bizonyult.
Volt, aki – egy szöveg-videó konverter használatával – egyenesen interjút készített vele arról, hogy milyen mesterségesen intelligens gépnek lenni:
Most, másfél évvel később a Meta is felvette a fonalat, és bemutatta saját nyelvi modelljét, az OPT-t (Open Pretrained Transformer), amelyet több különböző méretben szabadon hozzáférhetővé is tett. A kisebb, 30 milliárd tanulási paraméterig terjedő modellek fent vannak a GitHubon (a kód mellett fejlesztői naplóval, nyers adatokkal és kutatási dokumentumokkal), míg a legnagyobb, 175 milliárd paraméteres modellt egyelőre csak kérésre, kutatóknak adják ki tesztelni.
Direkt másolták a GPT-3-at, a rasszizmusával és a nőgyűlöletével együtt
A nyílt forráskódú kiadást nagyra értékelte a szakma: mivel a nyelvi modellek óriási adathalmaz feldolgozását és jelentős számítási kapacitást igényelnek, jobbára csak a nagy techcégek engedhetnek meg maguknak ilyen fejlesztéseket, ők pedig nem kötelesek hozzáférhetővé tenni a kódot, és többnyire nem is teszik. A mesterséges intelligencia alapjait megteremtő gépi nyelvhasználat fejlődése így általában az AI-kritikusok, akadémikusok, etikai vagy társadalomtudományi szakértők látómezején kívül zajlik, de a Meta AI állítása szerint ezen változtatni kíván.
„Tudjuk, hogy szakadék tátong az egyetemek és az ipar között az ilyen modellek fejlesztésére való képességet tekintve, ezért nem volt kérdés, hogy hozzáférhetővé tesszük a kutatóknak. Reméljük, mások is átfutják majd a munkánkat, és szétszedik vagy továbbfejlesztik. Az áttörések gyorsabban jönnek, ha többen vagyunk” – mondta az MIT Technology Review-nak Joelle Pineau, a Meta AI ügyvezető igazgatója. Pineau azt is elárulta, hogy szándékosan alkottak a GPT-3 méretével megegyező modellt, ráadásul arra is törekedtek, hogy a nyelvi feladatok megoldásának hatékonyságában, de még a toxikus nyelvezetben és az előítéletességben is hasonlítson az OpenAI modelljére. Az OpenAI, amely a transzparens AI-kutatást forszírozó alapítóinak szándékával ellentétben csak fizetős szolgáltatásként árulja saját nyelvi modelljét, nem kommentálta a Meta húzását.
A lépésnek azonban kritikusai is akadnak, hiszen elsőre valóban nem tűnik jó ötletnek, hogy bárkinek elérhetővé tesznek egy direkt toxikus nyelvezetre tanított (részben a Reddit szöveganyagával etetett) mesterséges intelligenciát, és annak működésének minden részletét. Ahogy maga az átlátható AI-fejlesztések kultúráját a Facebooknál meghonosító Pineau is elmondta: „Nem állíthatom, hogy nincs arra esély, hogy ez a modell olyan szövegeket alkot majd, amire nem vagyunk büszkék. Lesz ilyen.”
Az átláthatóság határai
A Google korábbi etikai kutatója, Margaret Mitchell szerint például nagyon fontos az átláthatóság az AI-szektorban, de a transzparenciának is vannak határai – alaposan meg kell vizsgálni, hogy a várható előnyök meghaladják-e az előrelátható károkat, például a félretájékoztatás vagy a rasszista és nőgyűlölő nyelvezet generálása által. Pineau azonban elutasítja azt a vélekedést, hogy csak azért nem szabad kiadni egy modellt, mert az túl veszélyes – szerinte ez nem kutatói gondolkodásmódra vall.
Az biztos, hogy a modell mellé kiadott, a Meta AI kutatói által írt technikai jelentés nem kertel: „Az OPT-175B nagymértékben hajlamos toxikus nyelvezetet generálni és káros sztereotípiákat erősíteni.” A GPT-3-mal is összehasonlították a modellt, és úgy találták, hogy az OPT-175B „magasabb toxicitási rátával rendelkezik”, valamint „a vallás kivételével minden kategóriában több sztereotip előítéletet mutat”. Mint a kutatók megállapították, az OPT akkor is képes káros tartalmakat előállítani, „ha viszonylag ártalmatlan paranccsal látják el”, vagyis a beviteli szövegtől függetlenül hajlamos vulgáris, agresszív vagy előítéletes irányba terelni a szövegalkotást.
A jelentést a Twitteren elemző AI-kutató és szerző, Arthur Holland Michel arra is rámutatott, hogy a nyelvi modellek a 22-es csapdájába kerültek: „Ahhoz, hogy a rendszer képes legyen felismerni és kiszűrni a toxikus kimeneteket, nagyon jól kell ismernie a toxikus nyelvezetet, ami azonban növeli a készségét a nyílt toxikusságra.”
A New York-i Egyetem AI-szakértő pszichológiaprofesszora, Gary Marcus sem optimista a nagyméretű nyelvi modellekkel kapcsolatban, amit az Analytics India Magazine-nak fejtett ki: „Nem teljesítenek túl jól abban, hogy ne legyenek toxikusak, hogy igazat mondjanak, vagy hogy megbízhatók legyenek. Nem hiszem, hogy olyan általános intelligenciát akarunk építeni, amely megbízhatatlan, félretájékoztatja az embereket és potenciálisan veszélyes. A GPT-3 például azt tanácsolja az embereknek, hogy kövessenek el öngyilkosságot. A gépi fordítás terén óriási előrelépés történt, de a gépi szövegértés terén nem. Az erkölcsi gondolkodásnak nyomát sem látni, és nem hiszem, hogy a mesterséges intelligencia jelenleg egészséges terület lenne.”
Azok nem férnek hozzá, akik javítanának rajta
Mint arra Maarten Sap, az Allen Institute for Artificial Intelligence (AI2) kutatója az IEEE Spectrumnak rámutatott, még azoknak sem könnyítették meg a munkáját, akik – hozzá hasonlóan – épp a nagyméretű nyelvi modelleket igyekeznek megszabadítani a toxikus hajlamaitól. A Carnegie Mellon Egyetem nyelvtechnológiai intézeténél is dolgozó Sap szerint sokan szívesen használnák az OPT-175B-t, de „a legnagyobb probléma az, hogy valójában kevés kutatóintézetnek van olyan infrastruktúrája, amely képes futtatni ezt a modellt”. Ő például a toxikus nyelv kockázatait és a nyelvi modelleken belüli szociális intelligenciát tanulmányozná, ha könnyen lehetne használni.
Az elmúlt években több olyan szervezetet alapítottak, amely nem elégszik meg a nagy techcégek egymással kötött, semmilyen kötelező érvénnyel nem rendelkező etikus AI-szövetségeivel, és az AI-kutatások szabályozásáért küzd. Az AI2 is közéjük tartozik, így Sap szerint is fontos „megakadályozni, hogy a kutatók, az emberek vagy vállalatok a mesterséges intelligenciát emberek megszemélyesítésére, propaganda vagy álhírek előállítására vagy más károk okozására használják”.
Hogy ez hogyan érinti a híresen szabályozásfóbiás Metát, az hamarosan kiderülhet, de nemsokára úgyis fellélegezhetnek a cégnél, mivel a nyár vége felé újra az OpenAI kerül a figyelem – és az aggódó támadások – középpontjába, a várhatóan még nagyobb és fejlettebb GPT-4-gyel.
Kapcsolódó cikkek a Qubiten: