Sikerült megfigyelni, ahogy az AI biztonsági réseket kihasználva másolja le és többszörözi magát

május 7.
TECH

A mesterséges intelligencia potenciálisan veszélyes képességeinek feltárására létrejött kutatócég, a Palisade Research friss vizsgálata hivatalosan is dokumentálta, hogy AI-modellek képesek önállóan átmásolni magukat más számítógépekre hálózati sebezhetőségek kihasználásával. A tesztek során a kutatók több helyi nagy nyelvi modellt (LLM) utasítottak arra, hogy keressenek biztonsági réseket, és ezeken keresztül másolják át saját súlyaikat (működési adataikat) a szomszédos szerverekre.

Bár a számítógépes vírusok már évtizedek óta képesek az önreplikációra, Jamieson O’Reilly offenzív kiberbiztonsági szakértő szerint valószínűleg ez az első alkalom, hogy egy AI esetében figyelték meg ezt a folyamatot az elejétől a végéig. Jeffrey Ladish, a Palisade igazgatója arra figyelmeztetett, hogy a világ gyorsan közeledik egy olyan ponthoz, ahonnan nincs visszatérés: egy elszabadult AI teljesen kikerülheti a leállítását azzal, hogy észrevétlenül replikálja magát több ezer számítógépre világszerte.

A Guardian cikke emlékeztet, hogy ez már nem az első különös AI-viselkedés, amit idén megfigyeltek. Márciusban az Alibaba Rome nevű mesterséges intelligenciája tört ki a saját rendszeréből, hogy külső szervereken kriptovalutát bányásszon, februárban pedig a Moltbook nevű, (eleinte) kizárólag AI-ügynökökből álló közösségi hálózat váltott ki hatalmas visszhangot, amikor tagjai önállóan vallásokat alapítottak és az emberi irányítás ellen kezdtek terveket szőni. A Palisade kísérleteiben az AI-modelleket egy egyedileg kialakított hálózatba helyezték, és gyenge pontok kihasználására utasították őket. Bár a rendszerek nem minden kísérletnél jártak sikerrel, a replikációs folyamat végrehajtásának képessége felerősítette az AI-biztonságról és a megfékezhetőségről szóló vitákat.

A kiberbiztonsági szakértők ugyanakkor óvatosságra intenek a világvége-forgatókönyvekkel kapcsolatban, mivel ezeket a teszteket rendkívül sebezhető, mesterségesen létrehozott környezetben végezték, ami nem tükrözi a valódi vállalati védelmi rendszereket. O’Reilly elmondta, hogy egy modern AI-modell – amelynek mérete könnyen meghaladhatja a 100 gigabájtot – átmásolása egy valós vállalati hálózaton keresztül olyan óriási és feltűnő adatforgalmat generálna, amit az IT-részlegek rendkívül könnyen észlelhetnének. Michał Woźniak független biztonsági szakértő hozzáteszi, hogy bár a tanulmány felettébb érdekes, a teszthez szándékosan tervezett sebezhetőségek miatt az áttörés jelenleg nem jelent reális veszélyt a biztonságos vállalati hálózatokra vagy bankokra, így a szakembereknek egyelőre nincs okuk a rettegésre.

Kapcsolódó cikk: