A Microsoft, az Amazon és az Intel is felkerült a világ leghalálosabb techcégeinek listájára
Az autonóm fegyverrendszerek, vagyis a gyilkos robotok fejlesztése ellen küzdő, több mint 110 jogvédő és tudományos szervezetből álló Campaign to Stop Killer Robots mozgalom friss jelentést készített arról, hogy az ilyen fegyverekhez szükséges technológiákkal (mesterséges intelligencia, robotika, big data stb.) foglalkozó legnagyobb cégek hogyan állnak a kérdéshez.
Az 50 megkérdezett céget három kritérium alapján sorolták be a fokozottan aggályos, a közepesen aggályos és a legjobb gyakorlat kategóriáiba: fejlesztenek-e olyan technológiákat, amelyek összefüggésbe hozhatók a halálos autonóm fegyverekkel; dolgoznak-e ezzel kapcsolatos katonai projekteken; illetve elkötelezte-e magát a cég arra, hogy nem járulnak hozzá a halálos autonóm fegyverek fejlesztéséhez?
Mint kiderült, az 50-ből csak 7 vállalatnál (Animal Dynamics, Arbe Robotics, General Robotics, Google, HiveMapper, Softbank, VisionLabs) vannak érvényben olyan irányelvek, amelyek biztosítják, hogy a fejlesztéseiket ne használhassák fel autonóm fegyverrendszerek gyártásához. Emellett 22 cég (köztük az Apple, a Facebook, az IBM vagy a Samsung) került a köztes kategóriába – e cégek egy része köztudottan dolgozik katonai vagy biztonsági projekteken, de válasza szerint nem fejleszt gyilkos robotokat, másik részük pedig nem köthető ilyen projektekhez, de nem válaszoltak a kérdésekre.
Így maradt 21 olyan cég, amely a fokozottan aggályos kategóriába került, vagyis tudhatóan dolgozik katonai-biztonsági projekteken, de nem válaszolt, vagy válaszával nem oszlatta el a kételyeket aziránt, hogy ellenzi az autonóm fegyverek fejlesztését. Az ismertebb vállalatok közül ide tartozik az Amazon, az Intel, a Microsoft, az Oracle, a Palantir és a SenseTime is.
A JEDI visszatér
A mozgalom szerint az egyik legnyugtalanítóbb projekt jelenleg az amerikai védelmi minisztérium egyesített felhőszolgáltatásáért, a JEDI-ért (Joint Enterprise Defense Infrastructure) zajló harc: a 10 milliárd dollár értékű szerződés nyertesének kihirdetését 2019. augusztus 1-én elhalasztották, miután a Microsoft, az Oracle és az IBM is panaszt tett, hogy a kiírt pályázatot túlságosan is az Amazonra szabták. A projektet korábban így jellemezték:
„A JEDI felhő lesz az az infrastruktúra, amely a Pentagon irodáitól a harcmezőkig mindent lefed. A jelenleg használt rengeteg, egymással nem kompatibilis adatbázis helyett egy olyan egyesített felhőszolgáltatás, amely a gépi tanulás segítségével lehetővé teszi, hogy a különböző eszközök sokasága valós időben férjen hozzá hatalmas mennyiségű adathoz.”
A projektért egykor felelős, azóta lemondott minisztériumi tisztviselő, John Gibson korábban azt mondta a JEDI-ről, hogy „ez a program valójában a Pentagon halálosságának növeléséről szól.”
Az Amazon, amely 2014 óta a CIA felhőjét is szolgáltatja, a drónok, valamint az arc- és beszédfelismerő rendszerek fejlesztésében is érdekelt. Az Amazon Alexa az egyik legismertebb hangvezérelt virtuális asszisztens, a cég botrányos pontatlanságáról is híres arcfelismerő rendszere, a Rekognition pedig már rendőrségek munkáját is segíti. Amikor a Google kihátrált a Pentagon egyik drónprojektjéből, az Amazon-vezér Jeff Bezos a következőt nyilatkozta: „Ha a nagy techcégek hátat fordítanak az Egyesült Államok védelmi minisztériumának, akkor ez az ország nagy bajban lesz.”
Belháború a Microsoftnál
A Microsoft esetében már nagy belső ellentétekről is lehet tudni. A cégnek a JEDI előtt már volt egy projektje a Pentagonnal: 479 millió dollárért több mint 100 ezer HoloLens VR-headsetet szállítottak le a hadseregnek, amikkel a katonák virtuális valóságban gyakorolhatták az ellenség felkutatását, felismerését és kiiktatását. A VR-részlegen dolgozók a szerződés bejelentése után nyílt levélben írták meg a cég vezérigazgatójának, hogy ők úgy tudták, a HoloLens „építészeket és mérnököket segít épületek és autók tervezésében, sebészek és zongoristák képzésében játszik szerepet vagy a videojátékokat forradalmasítja majd.”
A jelentést készítő szervezetnek a Microsoft részéről Eric Horvitz, a cég kutatóközpontjának igazgatója és a mesterséges intelligenciával foglalkozó etikai bizottságának (Aether) elnöke válaszolt, aki elmondta, hogy a Microsoftnál prioritást élvez a felelősségteljes AI-fejlesztés, és az Aether folyamatosan hangsúlyozza az anyacégnek, hogy az érzékeny AI-technológiák esetében fontos a megfelelő biztonsági előírások, valamint az emberi kontroll megtartása. Levelében ugyanakkor azt is leírta, hogy az ő válasza nem tekinthető a cég hivatalos álláspontjának gyilkosrobot-ügyben.
Korábban viszont már többen is nyilatkoztak a cég vezetéséből a Microsoft katonai szálairól. 2018 októberében Brad Smith elnök mondta, hogy „hiszünk az Egyesült Államok erős védelmében, és azt akarjuk, hogy akik megvédik az országot, azok hozzáférjenek a nemzet legjobb technológiájához, többek közt a Microsoft részéről.” A vezérigazgató, Satya Nadella pedig rejtélyesen azt nyilatkozta: „az USA fegyveres erőinél megvan az alapvető irány, hogy milyen technológiákat és gyakorlatokat lehet erkölcsösen alkalmazni” – igaz, azt nem fejtette ki, hogy mi ez az alapvető irány.
A Microsoft 2018-ban „The Future Computed” címmel adott ki egy könyvet a mesterséges intelligencia lehetséges felhasználási lehetőségeiről és veszélyeiről. Ebben hat alapelvben írták le, hogy milyen egy etikailag kifogásolhatatlan AI-fejlesztés: becsületes, megbízható és biztonságos, magánjellegű és biztosított, inkluzív, átlátható és felelősségre vonható. A Microsoft alkalmazottjai ehhez képest így fogalmaztak nyílt levelükben: „A JEDI-vel a Microsoft vezetői jó úton járnak, hogy rövid távú profitért cserébe felrúgják ezeket az alapelveket. Ha a Microsoft átlátható akar lenni a szolgáltatásaival, akkor egyértelmű etikai iránymutatásra és valódi felelősségvállalásra van szükség a cégnél, hogy kinyilvánítsuk, a technológiánk milyen irányú felhasználása elfogadható, és mi az, ami elfogadhatatlan.”
„Az olyan cégek, mint a Microsoft és az Amazon, miért nem tagadják, hogy jelenleg is fejlesztenek ilyen meglehetősen vitatott fegyvereket, amik maguktól, emberi beavatkozás nélkül dönthetnének emberek meggyilkolásáról? A legtöbb szakértő szerint ezek ellentmondanak az alapvető jogi és erkölcsi elveknek, és veszélyeztetnék a nemzetközi békét és biztonságot” – mondta a hollandiai székhelyű békeszervezet, a PAX közleményében Frank Slijper, a jelentés vezető szerzője.
Csipek, drónok
Bár az IBM azt válaszolta, hogy nem fejleszt gyilkos robotokat, ezért csak a közepesen aggályos kategóriába sorolták, a cég régóta kapcsolatban áll a védelmi minisztériummal: az IBM szuperszámítógépei végzik el az USA nukleáris fegyvereinek szimulációit, de a tengerészgyalogság mesterséges intelligencián alapuló stratégiájának eszközeit is a cég szolgáltatja. Az IBM a következő 10 évben az ezerszeresére növelné AI-csipjeinek már most is óriási teljesítményét, így egyre izgalmasabb lesz követni a cég katonai szálait.
A legveszélyesebb kategóriába került viszont az IBM nagy vetélytársa, a kormányoknak is előszeretettel dolgozó Intel. „Ahogy egyre kevesebb pénzből gazdálkodhatnak a kormányzati szervek, az Intel mesterséges intelligenciája lehetővé teszi, hogy többet érjenek el kevesebből. A mély tanulással egyesítve a műhold- és drónfelvételek új lehetőségeket nyitnak a honvédelem, a katasztrófavédelem és a térképezés területein” – vallja a cég, amelyet 2017-ben választott ki a katonai kutatás-fejlesztési ügynökség, a DARPA, hogy részt vegyen a katonaság infrastruktúrájához szükséges új, neurális hálózatokra alapuló számítástechnikai platformjának fejlesztésében.
Emellett a drónok és a repülésirányítás területein is otthonosan mozog a cég, amely 2016-ban fejlesztette ki a Shooting Star nevű drónjait, amiket nagy számban tud egyszerre irányítani egy központi számítógép – ezt a technológiát egyelőre különböző fényshow-k esetében hasznosítják, de nem nehéz elképzelni, hogy milyen katonai funkcióval bírhat egy hasonló rendszer.
A jelentés célja elsősorban a szélesebb közönség informálása a folyamatban lévő vita állásáról, valamint a technológiai vállalatok biztatása arra, hogy alakítsanak ki nyilvános, világos irányelveket, amelyekben meghúzzák a határt, hogy meddig mennek el a mesterséges intelligencia katonai alkalmazásában.
„Ez egy fontos vita. A techcégeknek tudniuk kell, hogy hacsak nem tesznek ellene lépéseket, a technológiájukat felhasználhatják halálos, autonóm fegyverek fejlesztéséhez. Az egyértelmű, nyilvánosan elérhető irányelvek megalkotása létfontosságú stratégia ennek elkerülésére” – nyilatkozta Daan Kayser, a PAX autonóm fegyverekkel foglalkozó projektvezetője.
Kapcsolódó cikkek a Qubiten: