„Ne az emberi faj kihalása legyen az a szint, ahol elkezdenek érdekelni minket a mesterséges intelligencia globális kockázatai”
2024-ben soha nem látott szintet ütött meg a mesterséges intelligencia (AI) körüli felhajtás. A legfejlettebb chatbotok heti szinten előzgetik egymást az online ranglistákon, miközben a nagy techcégek, a Samsung, a Google és az Apple azon versengenek, hogy melyikük tud több AI-funkciót belepréselni az okostelefonjainkba. Nem volt hiány áttörő algoritmusokban sem, amik percek alatt előrejelzik bolygónk időjárását, felgyorsítják a gyógyszerhatóanyagok keresését, vagy éppen fekete lyukak kitöréseit segítenek rekonstruálni a kutatóknak.
Idén az is egyértelművé vált, hogy vége a vadnyugatos AI-korszaknak, amikor a fejlesztések és azok piacra dobása laza szabályok szerint, lényegében korlátlanul folyhat, és ahol maximum a furcsán viselkedő chatbotok okozhatnak PR-problémákat a többségében amerikai techvállalatoknak. Az Európai Parlament márciusban elfogadta a világ első átfogó mesterségesintelligencia-törvényét, az AI-jogszabályt (AI Act), amely tiltja az AI állampolgári jogokat veszélyeztető alkalmazásait, és új kötelezettségeket ró a vezető AI-modellek fejlesztőire. Eközben más helyeken, köztük a Szilícium-völgynek otthont adó Kaliforniában is dolgoznak AI-jogszabályokon.
„Ezt a törvényt nagyon jól átgondolták minden más AI-szabályozáshoz képest, ami a világon létezik” – nyilatkozta a Qubitnek Atoosa Kasirzadeh mesterséges intelligenciával foglalkozó filozófus, alkalmazott matematikus és rendszermérnök, amikor az augusztus 1-jén hatályba lépett európai AI-jogszabályról kérdeztük. Kasirzadeh, aki a Google Research vendégkutatója, a Milestone Intézet meghívásából augusztus elején járt Budapesten, hogy a mesterséges intelligencia jövőjéről beszéljen a Sziget Fesztiválon rendezett programsorozatukon – az itteni, „Think for Tomorrow” színpadon tartott előadása után készítettünk vele interjút.
A szakértő elmondta, hogy az európai AI-szabályozást több éven keresztül az érintettek – az akadémiai és ipari szektor – széles körének bevonásával alakították ki, ami lehetőséget adott különböző nézőpontok ütköztetésére. „Én személyesen nagyon örülök annak a ténynek, hogy az EU AI-törvénye megmutatja az egész világnak, hogy AI-szabályozást nagyon körültekintően is lehet csinálni” – mondta, és hozzátette, hogy ezt úgy érték el, hogy nem követtek egy adott narratívát a technológia jövőjéről. Kasirzadeh előadásában három népszerű narratívát vázolt fel az AI-fejlesztések kifutásáról és az általános mesterséges intelligenciáról (artificial general intelligence, AGI), amely az emberekhez hasonlóan intellektuális feladatok tág körével tud megbirkózni.
Ezek az „egzisztenciális kockázati narratíva”, a „gyorsító narratíva” és a „csak az azonnali ártalmak narratíva” nevet kapták. Az első a mesterséges szuperintelligencia (artificial superintelligence, ASI) kockázatára figyelmeztet, aminek képességei messze meghaladják az emberét, és így létrehozása az emberi faj kihalásához vezethet. Proponensei ezért arra bíztatnak, hogy gondolkodjunk a lehetséges disztópikus kimenetelekről. A második, ismertebb nevén az e/acc (effective accelerationism) mozgalom az emberiség problémáinak megoldójaként tekint az AGI-ra, és bármilyen szabályozást, ami az AI-fejlesztéseket lelassítja, problémásnak tart. A harmadik gyakori narratíva az AGI ígéretét a gazdagok és a nagy hatalommal rendelkezők trükkjének tartja, és amellett érvel, hogy az AI-rendszerek mostani káros hatásaira kellene fókuszálni, például a modellek tanítására és futtatására használt szerverparkok energiafogyasztására.
Az AI Act egy példa arra, hogy emberek demokratikus módon gondolkodnak a mesterséges intelligencia jövőjéről
Kasirzadeh egy negyedik lehetőséget is felvázolt, amelyet ő demokratikus ágensek narratívájának nevez. Ennek célja a mesterséges intelligencia gazdasági előnyeinek igazságos elosztása, a döntéshozatalban történő emberi szerepvállalás fenntartása, és annak biztosítása, hogy az AI-rendszerek tiszteletben tartsák a személyes adatok védelmét és a személyi szabadságjogokat. Ez a narratíva elismeri, hogy komplex kihívásról van szó, és különbözőképpen alakulhat a jövő, valamint hangsúlyozza a technológia biztonságos fejlesztését célzó (AI safety) kutatások és az AI-képzések fontosságát. A szakember szerint az AI Act egy példa arra, hogy emberek demokratikus és megfontolt módon gondolkodnak a mesterséges intelligencia jövőjéről.
A kérdés most az, hogy miként ültetik át a gyakorlatba az európai szabályozást. A törvény létrehozta az európai AI-hatóságot, ami jelenleg is állampolgárokkal és nemzetközi kutatókkal egyeztet erről. Mint Kasirzadeh elmondta, most két területre összpontosítanak: az AI-modellek által jelentett rendszerszintű kockázat precíz definiálására, valamint az AI-rendszerek fejlettségének mérésére. A kutató szerint a rendszerszintű kockázatnak konkrétabbnak és mérhetőnek kell lennie, és arra számít, hogy a kérdésen dolgozó szakértők ősszel osztják majd meg, hogy mire jutottak. A másik a flopsnak nevezett fogalmat érinti, ami az AI-modellek betanításához szükséges számítási teljesítmény mértéke. Az AI Act értelmében azokat az általános célú AI-modelleket, amelyeknek betanításához 1 x 1025 FLOPs-nál nagyobb számítási teljesítményt használnak, a rendszerszintű kockázatot jelentő kategóriába sorolják.
Az informatikusok egy része úgy látja, hogy ezt a teljesítménymértéket nem kellett volna belerakni a törvénybe, míg mások hasznosnak vélik, de más szinten szabnák meg a küszöböt, amely felett egy modell rendszerszintű kockázatot jelent. A Meta legújabb nyílt AI-modellje, a július végén bejelentett Llama 3.1 Kasirzadeh szerint már túllépi ezt a küszöböt. A modell legnagyobb és legkomplexebb, 405 milliárd paraméteres verzióját 3.8 x 1025 FLOPs számítási teljesítménnyel tanították be. A Llama 3.1 egy nyílt súlyú (open weight) modell, ahol azok a súlyoknak nevezett paraméterek, amiken a végleges neurális hálót tréningelték, bárkinek hozzáférhetők.
Még mindig nem tudni, hogyan akadályozzuk meg, hogy az AI-modellek nem kívánt információkat adjanak ki
Kasirzadeh szerint ezek a súlyok kritikus információt rejtenek, ami elméletben lehetővé teszi, hogy a modellt rosszindulatú felhasználók saját céljaikra fordítsák. Ezek választások alatt indított félretájékoztató kampányok kifejlesztésétől akár új biológiai fegyverek létrehozásáig terjedhetnek. Bár még nem világos, hogy utóbbi esetben mennyire bizonyulnának hasznosak a generatív AI-rendszerek, a tét óriási, ami miatt sok kutató nem támogatja a nyílt súlyú modellek kiadását. Ezek ugyanakkor a nyílt modelleknek csak egy változatát képviselik. „A nyílt vagy zárt [AI-rendszerek] kérdését különböző nyitottsági fogalmak szerint kell értelmezni” – mondta, majd hozzátette, hogy többen támogatják a modell felépítését leíró információ megosztását, vagy azt, hogy fejlesztőknek és az open source közösségnek legyen valamekkora lehetősége a végső modell finomhangolására.
Egy 2022-es tanulmányban Kasirzadeh és kollégái összefoglalták a nagy nyelvi modellek (LLMs) által jelentett kockázatokat olyan területeken, mint a diszkrimináció, a gyűlöletbeszéd, a félretájékoztatás, vagy a környezeti és társadalmi-gazdasági károk. Arra voltunk kíváncsiak, hogy melyek azok a területek, ahol a szakemberek azóta tudták csökkenteni a kockázatokat, és mik azok, amik a jövőben nagyobb figyelmet igényelnek. „Az elfogultság enyhítésével és az igazságosság biztosításával sok különböző kutató foglalkozott” – mondta, és hozzátette, hogy sok diverzitás-mutatót fejlesztettek ki az algoritmusok elfogultságának tesztelésére. A nehéz dilemma szerinte most az, hogy ezek közül melyeket érdemes használni, és mennyire engedhető meg a modellnek, hogy sztereotip előítéleteket fogalmazzon meg közösségekkel szemben, vagy tagadható ez meg neki a közösségek védelme érdekében.
„Ez egy nagyon trükkös kérdés, mert azon múlik, hogy miként gondolsz a szólásszabadság jelentőségére” a „marginalizált közösségekkel szemben okozott károk minimalizásával” szemben, mondta. Elon Musk korábban azt állította, hogy az xAI vállalata egy „maximálisan az igazságot kereső” mesterséges intelligencián dolgozik. Ezzel Kasirzadeh szerint az a probléma, hogy konkrét állítások igazságának megállapítása, különösen társadalmi és politikai kérdésekben rendkívül nehéz, és ebből következik az, hogy különböző cégek és AI-modellek eltérő megközelítésük van arra, hogy miként gondolkodnak az „igazságról”. Úgy véli, hogy még nem folytattuk le a társadalmi vitát arról, hogy melyik megközelítést részesítsük előnyben. „Lehet, hogy nincs erre válasz. Talán különböző típusú modellekre van szükségünk” – mondta.
„Az egyik terület, ahol még mindig nagyon-nagyon le vagyunk maradva, az az információs veszély (information hazard) területe” – mondta Kasirzadeh. Ez arra vonatkozik, amikor a modell olyan típusú információt ad ki, amit a fejlesztői nem akartak, amibe beletartozhatnak személyes adatok is. Azok, akik gyakran használják a népszerű chatbotokat, már találkozhattak ilyennel. Amikor először próbálkozunk, a modell megtagadja, hogy válaszoljon egy kérdésre, majd ha elkezdünk játszadozni vele, egy jailbreakingnek nevezett folyamat során, akkor egy olyan kimenetet ad, amit a fejlesztői vélhetően el szerettek volna kerülni. „Azt gondolom, hogy nincs sok kutatásunk arra vonatkozóan, hogyan lehetne megelőzni az AI-rendszerek ilyen típusú sebezhetőségét” – mondta.
A mesterséges intelligencia és a geopolitika
Július végén az OpenAI vezérigazgatója, Sam Altman egy véleménycikket közölt a Washington Postban, amiben amellett érvelt, hogy a mesterséges intelligencia demokratikus víziójának, amit az Egyesült Államok és szövetségesei képviselnek, muszáj felülkerekedni az Oroszországhoz és Kínához hasonló országok autoriter vízióján. Altman azt állította, hogy bár az USA továbbra is vezet az AI-területén, egy új innovatív stratégiára van szükség ennek az előnynek a megtartására. „Bárki is szerzi meg a legokosabb AI-rendszereket, különböző módokon alkalmazhatja majd őket” – mondta Kasirzadeh, köztük az emberek AI-eszközökkel történő segítésére, vagy egy jobban teljesítő piacgazdaság kialakítására. Az AI jövőjét övező geopolitikai viták, mint elmondta, általában az USA és Kína közötti, leegyszerűsített forgatókönyvekről szólnak, és még Európa sem szerepel bennük, nemhogy Afrika, vagy Ázsia Kínán kívüli részei.
De miként befolyásolhatja a közelgő amerikai elnökválasztás az AI-fejlesztéseket? „Donald Trump nagyon határozottan kijelentette kampánybeszédeiben, hogy nem pártolja az AI-szabályozását” – mondta Kasirzadeh. Részben ez az oka annak, hogy miért támogatja őt sok szilícium-völgyi kockázatitőke-befektető, például Marc Andreessen, a technooptimista kiáltvány szerzője.
„A demokraták oldalán azt hiszem nagyobb valószínűsége több szabályozásnak és AI-biztonsági intézkedésnek” – mondta, majd hozzátette, hogy a demokraták nyitottabbnak tűnnek és hajlandók különböző nézőpontokat meghallgatni. Ha Trump nyer novemberben, a szakértő nagy harcra számít az AI-biztonsági kutatások folytatásáért és az AI-eszközök biztonságos fejlesztéséért. Kasirzadeh szerint létezik egy másik, reménytelibb jövőbe vezető út is, amiben gondoskodunk arról, hogy ezek a rendszerek az emberiség javát szolgálják, hozzájáruljanak a gazdasági növekedéshez és ahol van egy jó szabályozási rendszer, ami megelőzi a katasztrófákat.
Kihalás vs. halmozódó globális kockázatok
Az AI-biztonsági kutatások területe manapság nagyon izgalmas, mondta Kasirzadeh, mert egyrészt rengeteg tanulmány jelenik meg, másrészt viszont még mindig sok a nyitott kérdés. „Nem világos, hogy mennyi biztonsági kutatás elég ahhoz, amit fejlesztenek” – mondta az OpenAI-nál kialakult szituációra utalva, ahonnan az elmúlt néhány hónapban több AI-biztonsági kutató is távozott.
Tavaly Altman, a Google DeepMind vezérigazgatója, Demis Hassabis, más AI-cégek vezetői, valamint kutatók, köztük Kasirzadeh egy rövid, AI-kockázatokról szóló nyilatkozatot írtak alá a Center for AI Safety égisze alatt. A nyilatkozat úgy szólt, hogy „a mesterséges intelligencia okozta kihalás kockázatának mérséklésének globális prioritásnak kell lennie más társadalmi szintű kockázatok, például világjárványok, vagy a nukleáris háború mellett”.
Azt szerettük volna megtudni, hogy ez a kockázat eredendően a nálunk fejlettebb képességű intelligens rendszerek létrehozásából adódik, vagy abból, hogy emberek ezekkel a rendszerekkel visszaélnek. „Azt gondolom, hogy mindkét forgatókönyv érvényes lehet” – mondta Kasirzadeh, és hozzátette, hogy eredetileg az olyan számítástudományi szakemberek, mint Max Tegmark, vagy Stuart Russell az előbbi miatt aggódtak. Eszerint egy új, mesterséges fajt hozunk létre, amely okosabb lesz nálunk és eltöröl minket a Föld színéről, hasonlóan ahhoz, amit a neandervölgyiekkel tettük több tízezer évvel ezelőtt. De mint elmondta, eközben fokozatosan komoly gondolkodás kezdődött arról, hogy az AI-rendszerek használata milyen más utakon vezethet egzisztenciális katasztrófákhoz.
2024 elején Kasirzadeh egy preprint tanulmányt tett közzé, amely két típusú egzisztenciális kockázatot különböztetett meg: döntőt (decisive risk) és halmozódót (accumulative risk). Az előbbi egy olyan forgatókönyvre utal, ahol egy szuperintelligens AI-rendszer kifejlesztése az emberi faj kihalásához vezet, utóbbi pedig arra az esetre, ahol fokozatosan AI-eszközöket építenek be társadalmi és politikai rendszerekbe, ami összességében egy sérülékenyebb globális rendszert eredményez, és lehetőséget ad arra, hogy különböző szereplők rosszra használják azokat és káoszt kreáljanak.
„A halmozódó [forgatókönyv] nekem észszerűbbnek tűnik, ha kihalásról, vagy egzisztenciális kockázatokról kell gondolkodni” – mondta Kasirzadeh, aki szerint nem szabadna, hogy az emberi faj kihalása legyen az a szint, ahol elkezdenek érdekelni minket azok a katasztrofális globális problémák, amikhez elvezethet a mesterséges intelligencia alkalmazása. Ha az AI-rendszerek megnövelhetik egy nukleáris konfrontáció esélyét rivális államok között, az már egy hatalmas katasztrófa lenne. „Így erről mindenképpen beszélnünk kell” – mondta.