Terrorbotok, dróneltérítések, kamu nagybácsik: vészjósló jelentés a mesterséges intelligencia veszélyeiről
„A mesterséges intelligencia és a gépi tanulás képességei soha nem látott mértékben nőnek. Ezeknek a technológiáknak sok hasznos alkalmazási lehetőségei vannak, a gépi fordítástól kezdve az orvosi képalkotásig. (...) Kevesebb figyelmet fordítunk azonban az olyan módszerekre, amelyek a mesterséges intelligenciát rosszindulatúan használhatják fel” – ezzel a bevezetővel kezdődik a 14 intézmény 26 szakértője által jegyzett, A mesterséges intelligencia rosszindulatú felhasználása: előrejelzés, megelőzés és kockázatcsökkentés című százoldalas jelentés.
A szerzők hangsúlyozzák: megoldásokat nem tudnak kínálni, de bemutatják azokat a támadástípusokat, amelyek már a következő öt évben elérhető technológiákkal lehetővé válnak, ha nem alakulnak ki időben a megfelelő védelmi stratégiák.
Amellett, hogy a jelenleg is létező támadásokat az AI-k elterjedésével egyszerűbben, olcsóbban és hatékonyabban lehet majd kivitelezni, megjelenhetnek újfajta, a jelenleg létező technológiákkal kivitelezhetetlen károkozási lehetőségek, amelyeket még nehezebb lesz a támadás mögött álló személyekhez kötni.
A szakértők három különböző biztonsági szakterületen vizsgálták a lehetséges fenyegetéseket: a digitális, a fizikai és a politikai biztonság szempontjából.
Pénzt kér a nagybácsi Skype-on, de az csak egy AI
Az adathalászatnak azt formáját, amikor megbízhatónak tűnő forrásból (ismerősök, bank, mobilszolgáltató) érkező emaileken keresztül próbálnak bizalmas információkat kicsalni az emberből (ezt angolul spear phishingnek nevezik) jelentősen megkönnyíti majd az AI gyors és automatizált hálózat-feltérképező képessége, de már az üzenetek megírásával sem kell bíbelődniük a humán támadóknak. Ugyanígy a magukat ismerősöknek, a bizalmunkat élvező szereplőknek kiadó chatbotok is képesek lesznek kényes információkat kiszedni belőlünk, feltűnés nélkül.
Egy ilyen, AI-t használó digitális támadás kivitelezése eleinte ugyan nehéz feladatnak bizonyulhat, de cserébe csak egyszer kell leprogramozni egy erre alkalmas szoftvert, a továbbiakat elintézi a gépi tanulás. Az email- és chatalapú támadások ráadásul kezdetleges technikák lehetnek, az AI-t használó hangutánzó és arccserélő programok terjedését elnézve simán elképzelhető, hogy például egy rokonunk képében megjelenő AI videóüzenetben könyörög majd, hogy utaljunk neki pénzt.
Jönnek a terrorbotok és a dróneltérítések
A pszichológiai manipulációra alapuló fenyegetéseken túl konkrét fizikai károk okozására is alkalmas lehet az AI. A tanulmányban szereplő példában egy minisztériumban dolgozó hétköznapi takarítórobot szerepel, amely egy benne elrejtett robbanószerkezet távoli aktiválásával rendez kisebb vérengzést az irodában. A példa szerint ha a többi, jóindulató robothoz megtévesztésig hasonlító elektroterroristát eladó üzletig vagy a gyártóig vissza is lehet követni a robot minisztériumig vezető útját, ha készpénzben történt a tranzakció, a gyilkosságot kitervelő személyt már szinte lehetetlen megtalálni.
A szoftveres vezérlésű járműveket, a drónokat és az önvezető autókat ugyanezen elv szerint lehet majd használni robbanószerkezetek szállítására és aktiválására, de eltéríteni is egyszerűbb lesz őket, anélkül, hogy az elkövetőnek az életét kelljen áldoznia az akcióban. A megfigyelési technikák is gyökeres változások elé néznek: emberi elemzésre gyakorlatilag nem lesz már szükség, amikor AI-vezérlésű kamerák pillanatok alatt tudják kategorizálni az emberi viselkedést – ha pedig még össze is kötik őket más AI-technológiákkal, akkor annak sem lesz akadálya, hogy egy kamerába épített fegyver automatikusan támadjon meg mindenkit, akit az eszköz alkotója ellenségének tart.
Végleg elmosódik a határ valóság és fake news között
A szerzők szerint az is téved, aki szerint a fake news aranykorát éljük: mesterséges intelligenciával szinte bármilyen híranyag vagy politikai nyilatkozat valósághűen legyártható lesz, határtalan lehetőség elé állítva a propagandistákat – a Washingtoni Egyetemen már most egész hihető ál-Obama-beszédet készítettek AI segítségével.
„Nem az a célunk, hogy világvége-hangulatot keltsünk – sokféle védelmi eljárást fejleszthetünk ki, és még sokat tanulhatunk. Egyáltalán nem gondolom, hogy reménytelen a helyzet, erre a tanulmányra inkább mint cselekvésre való felhívásra tekintek” – mondta a Verge-nek a jelentés egyik szerzője, a Future of Humanity Insitute-nál kutató Miles Brundage.
A szakértők négy fő javaslata szerint
- a döntéshozóknak szoros együttműködésben kell dolgozniuk a technikai kutatókkal, hogy megelőzzék a mesterséges intelligencia (AI) rosszindulatú felhasználását, és csökkentsék annak lehetséges kárait;
- a kutatóknak és a mérnököknek komolyan figyelme kell venniük a kettős felhasználású technológiákban rejlő minden olyan lehetőséget, amelyet potenciálisan rossz célokra is felhasználhatnak;
- azonosítani kell a bevált módszereket a kettős felhasználás kezelésében már jártas területeken (például számítógépes biztonság), és azokat az AI esetében is alkalmazni, amennyiben lehetséges;
- és aktívan törekedni kell arra, hogy kibővítsük az e kihívások megvitatásában érdekelt szakértők körét.
A dolgozattal azonban nem mindenki elégedett. „Azt is vegyük figyelembe, hogy az AI-technológiákat a jófiúk is használják, hogy a kiberbűnözés ellen hatékonyabban tudjanak harcolni, ráadásul azok hosszabb távú befektetést igényelnek, amit a hackerek általában nem engedhetnek meg maguknak” – mondta a Gizmodónak Ilia Kolochenko, a High-Tech Bridge nevű internetbiztonsági cég vezérigazgatója, aki szerint a jelentés eltúlozza a közeljövőben várható fenyegetéseket. „Ezért nem gondolom, hogy jelentős kockázatok vagy forradalmak történnének a digitális térben az AI miatt, legalábbis a következő öt évben.”