Videóajánló: Felszállnál egy repülőre, ha azt mondanák, 10 százalék az esélye, hogy lezuhan? És ha ez a repülő az AI?
Ki?
Tristan Harris, a Center for Humane Technology nevű szervezet társalapítója és ügyvezető igazgatója, aki egy 2016-os Atlantic-cikk szerint a Szilícium-völgy élő lelkiismerete lehetne, ha a techvilágnak lenne ilyenje. Korábban a Google-nél dolgozott etikus tervezőként, és jelenleg azt tanulmányozza, hogy működnek az emberek kárára a techplatformok, és mit tehetünk azért, hogy egyénenként és társadalomként is ellenállóbbak lehessünk a technológia hatásainak.
Aza Raskin matematikus és fizikus, a Center for Humane Technology társalapítója. Korábban a Mozilla Labs megalapításában segédkezett, míg apja, Jef Raskin az Apple Macintosh projektjén dolgozott, ahonnan azt a víziót hozta, hogy a technológiának segíteni kellene az embereket, nem ártani nekik.
Mit?
Egy friss előadásban Harris és Raskin kifejti, hogy míg korábban a mesterségesintelligencia-alapú projektek különböző területek fejlesztését jelentették, és a gépi látás területén dolgozók nem tudtak beszélgetni a hangfelismerésen dolgozó fejlesztőkkel, ez 2017-ben a transformer modellek megjelenésével megváltozott. Mára az összes AI-terület a nagy nyelvi modellekbe sűrűsödött össze, minden lefordíthatóvá vált valamilyen nyelvre – az agyhullámoktól a DNS-ig –, és mindenki ezek exponenciális fejlesztéséhez járul hozzá.
Mára már arra is képessé váltak ezek a modellek, hogy például agyról készített fMR-felvételekről lefordítsák, hogy egy adott ember milyen képet vagy videót nézett, milyen gondolatok formálódtak az agyában, és ezek a képességek egyre csak tovább tökéletesednek.
Sőt, a ChatGPT már olyan képességeket is elkezdett felszedni magára, amiket a szakértők sem értenek: senki nem tanította rá, mégis megtanult például bengáliul, de kutatói szintű vegyészként is megállná a helyét. Ráadásul az is fokozza az erejét, hogy ha esetleg elfogyna a betanításához és fejlesztéséhez szükséges adathalmaz, saját magát is képes tanítani és fejleszteni. Ettől „kétszeresen exponenciálissá” válik a fejlődése, és képtelenség lenne kordában tartani. Már most sem tudjuk igazán, hol tart.
Ehhez még hozzájön a nagy AI-fejlesztő cégek – a Microsoft, az OpenAI, az Amazon, a Google, a Facebook – piaci versenyre épülő logikája, hiszen a fejlesztéshez szükséges egyre több és több adat begyűjtése érdekében egyre gyorsabban és egyre szélesebb körben igyekeznek elterjeszteni a technológiát a társadalomban – anélkül, hogy a következményekkel bárki tisztában lenne, vagy megfelelő számú biztonsági szakértő részt venne a fejlesztésekben. Harris és Raskin arra igyekszik választ adni, mit tehetünk azért, hogy megakadályozzuk a valóság és a bizalom teljes összeomlását a társadalomban, amely a deepfake technológiák elterjedésével már el is kezdődött.
Hol?
Az előadást 2023. március 9-én, San Franciscóban tartották egy olyan, döntéshozókból és technológiai vezetőkből álló közönség előtt, amelynek tagjai hatással lehetnek a nagy nyelvi modellek jövőjére. A felvétel a Center for Humane Technology Youtube-csatornáján nézhető meg. (Érdemes észben tartani, hogy az előadást még azelőtt vették fel, hogy az OpenAI bemutatta volna a ChatGPT-nél még sokkal potensebb GPT-4 modellt.)
Kapcsolódó cikkek a Qubiten: