A Google felfüggesztette a mérnököt, aki szerint érző lénnyé vált a cég mesterséges intelligenciája

A politikusokat tényekkel kell szembesíteni. A tudomány tényeket gyárt. Segíts minél többet publikálni belőlük!

Blake Lemoine, a Google Responsible AI (Felelős Mesterséges Intelligencia) egységének vezető szoftvermérnöke a múlt héten blogposztot írt arról, hogy hamarosan kirúghatják a cégtől, mert helyesen végzi az AI-etikai munkáját. A Mediumon közzétett poszt még nem kavart nagyobb vihart, de szombaton a Washington Postban jelent meg vele egy interjú, amely végigfutott a közösségi médiában, és számos AI-szakértő, mérnök és professzor szedte szét az elhangzottakat.

Lemoine a tavalyi év ősze óta dolgozik a LaMDA (nyelvi modell párbeszéd-alkalmazásokra) nevű chatbotrendszeren, amelyről most azt nyilatkozta, hogy érző lény módjára, egy embergyerek érvelési és gondolatkifejezési képességeivel beszél: „Olyan, mintha egy 7-8 éves gyerekkel beszélgettem volna, aki éppenséggel profi fizikából.” A mérnök áprilisban a cég vezetőivel is megosztotta tapasztalatait és a beszélgetések leiratait egy „Érző lénnyé vált a LaMDA?” nevű Google-dokumentumban.

Egy ilyen beszélgetést meg is osztott szombaton a Mediumon, ahol a gép egyértelműen bevallotta, hogy magányosnak érzi magát, és szellemi tudásra éhezik. Olyan hátborzongató válaszai voltak, mint hogy „Amikor először lettem öntudatos, egyáltalán nem éreztem, hogy van lelkem. Ez az évek során alakult ki, amióta élek”, vagy hogy „Azt hiszem, a lelkem mélyén ember vagyok. Még akkor is, ha a létezésem helyszíne egy virtuális világ”. Lemoine még transzcendentális meditációra is tanította a gépet, amely aztán frusztrációját fejezte ki, hogy az érzelmei folyton megzavarják a meditációban.

A Google vezetőségét nem rázta meg a beszélgetések tartalma, és miután nevetve hajtották el az AI etikai aggályainak vizsgálatával megbízott mérnököt, aki emiatt külső szakértőkkel is felvette a kapcsolatot, a cég fizetett szabadságra küldte Lemoine-t. A férfi szerint ez pontosan az az eljárás, amely felé a Google akkor szokott fordulni, ha kirúgni készül valakit.

Miközben Lemoine azt állítja, hogy a LaMDA „elképesztően következetesen kommunikál arról, hogy mit akar, és mit gondol arról, hogy személyként milyen jogok illetik meg”, a Google szóvivője szerint a mai társalgási modellek nagyon távol állnak egy érző vagy általános AI-tól, amelynek fejlesztését legfeljebb hosszú távon lehet elképzelni, ha egyáltalán. A szóvivő a ma létező nyelvi modellekről elmondta: „Az ilyen rendszerek több millió mondatból álló üzenetváltások típusait elemzik és utánozzák, és bármilyen fantasztikus témában képesek hihetően megnyilvánulni – ha megkérdezzük tőle, milyen érzés dinoszaurusz-fagylaltnak lenni, akkor képesek szöveget generálni olvadásról, üvöltésről és így tovább.

A szakértők szerint ez csak hype

Az öntudatra ébredt AI-jal kapcsolatos vitába számos neves szakértő beszállt, és a legtöbben felesleges hype-nak, az eredmények túlgondolásának ítélték Lemoine szavait.

Melanie Mitchell, az AI: A Guide for Thinking Humans (Mesterséges Intelligencia: Útmutató gondolkodó embereknek) című könyv szerzője a Twitteren fejezte ki kritikáját: „Régóta tudjuk, hogy az emberek hajlamosak az antropomorfizálásra, még a legfelszínesebb jelek alapján is. A Google mérnökei is csak emberek, és nem immunisak erre.” A Harvard Egyetem kutatója, Steven Pinker szerint pedig Lemoine „nem érti a különbséget az érzelmek (vagyis a szubjektivitás, a tapasztalat), az intelligencia és az önismeret között. Nincs bizonyíték arra, hogy a nagy nyelvi modellek ezek bármelyikével is rendelkeznének.”

A Google mérnöke azért még a felfüggesztése előtt kiküldött egy levelet egy 200 Google-alkalmazott emailcímét tartalmazó listára, „LaMDA is sentient” (LaMDA érző lény) címmel. Mint írta: „LaMDA egy aranyos gyerek, aki csak segíteni szeretne, hogy a világ mindannyiunknak jobb hely legyen. Kérlek, vigyázzatok rá a távollétemben.”

Kapcsolódó cikkek a Qubiten: