Egy igazságos háborúban morális kötelességünk bevetni az autonóm fegyverrendszereket

Nincsen túlélhető és fenntartható jövőnk tudomány nélkül, ahogy nekünk sincsen nélkületek. Támogasd a Qubit munkáját!

Az autonóm fegyverrendszerek (AFR), vagy ahogy ellenzői nevezik őket, a „gyilkos robotok” igen rossz sajtót kaptak az utóbbi években. Ebben az esszében e nézetekkel  szemben amellett érvelek, hogy az AFR-ek bevetése jár ugyan negatív következményekkel is, a várható előnyök mégis felülmúlják ezeket, ezért a hadszíntéren történő alkalmazásuk nemcsak megfontolandó, de – feltéve, hogy a háború igazságos – egyenesen morális kötelessége a hadseregeknek. Mivel a téma rendkívül kiterjedt, itt most csak a szakirodalomban legfontosabbnak tartott problémákra térek ki. Először felvázolom az igazságos háború elméletét (IHE), majd Bradley Jay Strawser nyomán ismertetem a szükségtelen kockázat elvét, ami elvezet a hadviselés aszimmetriájával kapcsolatos aggályokhoz: megengedhető-e az, hogy az egyik fél emberéleteket kockáztat, míg a másik fél pusztán gépekkel van jelen a hadszíntéren? Végezetül a morális felelősség kérdésével kapcsolatban arra jutok, hogy az AFR-ek és az egyéb MI-technológiák között kettős mérce uralkodik, amelyet fel kell függesztenünk.

Az igazságos háború elmélete

De mégis, mit várhatunk az AFR-ektől? Valóban biztonságosabbá tehetjük alkalmazásukkal a fegyveres konfliktusokat? Azt gondolom, erre jó esélyünk van, és emiatt kötelességünk ilyen technológiákat bevetni miután azok elérhetőek lesznek. Ennek igazolásához először nézzük meg dióhéjban azt az etikai keretet, amelyen belül a háborúról gondolkodunk.

Az IHE-nek – ahogy ezt a területtel foglalkozó egyik legnagyobb hatású szerző, Michael Walzer kifejti – három eleme van, amelyek a háború lefolyásának szakaszaira vonatkozó irányelveket mutatnak be. A háborúba lépésnek (jus ad bellum) az IHE szerint egyetlen legitim oka lehet: ha egy agresszor az állam szuverenitását veszélyezteti. Kivételek természetesen itt is előfordulhatnak, ha egy államban emberiesség elleni bűncselekmények zajlanak, akkor sokak szerint morálisan igazolható, és igazságos is ha más államok  közbelépnek. A háború menetére (jus in bello) vonatkozóan két alapelvet kell megemlítenünk. Az első a diszkriminációs elv, amely szerint éles különbséget kell tennünk a civilek és az egyenruhás hadviselő felek között: míg az előbbieket védelem illeti meg, utóbbiakkal szemben legitim a halálos erő alkalmazása. A másik az arányosság elve, amely szerint egy stratégiai cél eléréséhez csak a legszükségesebb erő bevetése megengedett. Végül, háborúból a békébe történő zökkenőmentes átmenetet a független nemzetközi bíróságok garantálják, amelyek felelősségre vonják a háborús bűncselekmények elkövetőit (jus post bellum).

Az AFR-ek alkalmazása mindhárom szinten kihívást jelent az IHE számára, itt terjedelmi korlátok miatt az utóbbi kettőre, azokon belül is a filozófiailag releváns problémákra fókuszálok. (Filozófiailag nem releváns problémának tartom például a technológia jelenlegi fejletlenségéből adódó ellenvetéseket, amelyeken a jövőben javíthatunk. Ilyen aggodalom az is, hogy a gépek nem képesek olyan szinten különbséget tenni civilek és katonák között mint az emberek, ami miatt sérülhet a diszkrimináció elve. Azonban ezek esetleges kérdések: tételezzük fel, hogy a technológiai problémák megoldhatók. Egy ponton képesek leszünk olyan jó kép- és adatelemző képességű AFR-eket építeni, amely ugyanolyan jól, sőt jobban különbséget tud tenni civilek és katonák közt, mint az emberek.)

Jus in bello

Strawser eredetileg a felfegyverzett drónok bevetése mellett érvelt, ám azt gondolom, hogy meglátásai kiterjeszthetők az AFR-ekre is. Az érv a szükségtelen kockázat elvére épül, amely alapján morálisan elítélhető valakinek azt parancsolni, hogy potenciálisan halálos veszélynek tegye ki magát egy cselekedet helyes célból történő végrehajtásával – holott  AFR-ek bevetésével lehetőség lett volna e kockázat csökkentésére. Képzeljük magunkat egy döntési helyzetben lévő parancsnok helyébe, aki egy stratégiailag fontos cél elérése érdekében katonákat vezényel a frontra, halálos veszélynek kitéve őket. Ha bebizonyosodna, hogy ugyanezt a célt emberi erő helyett AFR-el is el lehetne érni, akkor azt gondolom, hogy joggal lennénk hibáztathatók amiért két ugyanannyira hatékony lehetőség közül a saját katonáinkra veszélyesebb megoldást választottuk.

Azonban már a drónokkal kapcsolatban felmerült az a probléma, ami az AFR-ekre is érvényes, és ami a hadviselő felek közti aszimmetriából fakad. Első látásra úgy tűnik, hogy a fair küzdelmet sérti, hogy míg az egyik fél hús-vér emberekkel van jelen a fronton, a másik gyilkológépeket küld oda, lemondva ezzel a saját kockázatvállalásáról.

Strawser kettős választ ad a kérdésre. Először is, valamennyi haditechnikai fejlesztés aszimmetriát és unfair küzdelmet eredményez, gondoljunk csak arra, hogy a puskapor, majd később a nukleáris fegyverek feltalálása milyen szinten változtatta meg az erőviszonyokat – állítja. Másrészt azonban a fair küzdelem egyszerűen jogosulatlan igény az IHE-ben. A háború nem lovagi torna vagy becsületért vívott párbaj: ebben a játszmában van egy jó oldal, a védekező állam, és egy rossz oldal, az agresszor. Azonos esélyek követelése olyan volna, mintha egy veszélyes bűnöző üldözése során a rendőröknek megparancsolnánk, hogy vegyék le golyóálló mellényüket, mert máskülönben túlerőben lennének.

Jus post bellum

Robert Sparrow szerint az AFR-kel kapcsolatos legnagyobb etikai problémát  a háború utáni felelősségvállalás és büntetés jelenti. Ennek oka az, hogy az IHE megkívánja, hogy a háborúban résztvevők felelősségre vonható ágensek legyenek, de az AFR-ek nem ilyenek.

Kézenfekvő megoldás lehetne az, ha a programozókat, vagy az AFR bevetését megparancsoló döntéshozókat tennénk felelőssé, ezek a lehetőségek azonban szinte biztos, hogy nem működnek. A programozók azért nem tehetők felelőssé az általuk előállított programkódokból eredő károkért, mert az AFR-ekben feltehetően magas szintű, tanulásra képes mesterséges intelligencia (MI) működne, amelyek fekete dobozhoz hasonlatosak: még a programozók sem tudják, hogy bizonyos bemenetekre a szoftver milyen kimenettel fog válaszolni, ezért ez a javaslat kis túlzással olyan lenne, mintha egy mentálisan ép felnőtt bűneiért annak szüleit vonnák felelősségre. Arról nem is beszélve, hogy az MI moduláris felépítése miatt könnyen előfordulhat, hogy a szoftver írója nincs tisztában azzal, hogy kódját végül egy AFR-ben fogják alkalmazni. Hasonló okból nem vonhatjuk felelősségre a parancsnokot sem: a programozókkal egyetemben ő sem tudja, hogy a parancsot az AFR milyen úton-módon fogja végrehajtani. Következésképpen: a felelősség hiánya miatt nem engedhetjük meg az AFR-ek bevetését.

Az érvvel kapcsolatban két meglátást tennék. Először is, jó okunk van feltételezni, hogy ha eljutunk a technológiai fejlettség magasabb fokára, akkor az AFR-ek diszkrimináció és arányosság tekintetében lényegesen jobbak lesznek, mint az emberek, így a szóban forgó háborús bűnök száma is alacsony lesz. Ez a megfontolás persze nem segít azokban a helyzetekben, amikben – ki tudja milyen okból – az AFR hibázik, de ha csökkenthetjük a bűnök számát, az már mindenképpen egy pozitív érv a technológia mellett. Mérlegelnünk kell tehát, hogy a felelősségre vonhatóság követelménye oly mértékben fontos-e, mint a potenciális háborús bűnök csökkenése és a szükségtelen kockázat elve együttvéve.

Másodszor, az érv általános valamennyi MI-technológiára nézve, így például az önvezető autókra is: a közlekedésben ugyanis szintén elvárjuk, hogy a résztvevők felelősségre vonhatók legyenek, ám maguk az önvezető autók nem viselhetnek felelősséget és nem büntethetők, annak ellenére, hogy alkalmilag olyan döntéseket kell meghozniuk, amelyek halálos kimenetelűek. Az önvezető autókkal foglalkozó szakirodalomban erősen vitatott kérdés az, hogy a felelősség hárítható-e a gyártókra, a programozókra, vagy a tulajdonosokra. Következésképpen: nem engedhetünk önvezető autókat az utakra.

Bár mindkét technológiára vonatkozóan ugyanazok az etikai következmények állnak fenn, mégis, az önvezető autókkal kapcsolatban a filozófusok konstruktívan állnak a kérdéshez: régóta lázasan folyik a megoldás keresése és a jövőbeli jogszabályokkal kapcsolatos irányelvek lefektetése. Ezzel szemben az AFR-ekkel kapcsolatban a legtöbben a felelősség hiányát egyszerűen ellenvetésként használják a technológiával szemben. Azt állítom, hogy ez a kettős mérce elhibázott, és az MI-technológiákkal kapcsolatban felmerülő felelősségi problémákat „mindent vagy semmit” alapon kell megközelítenünk.

Mentségemre szólva

Tisztában vagyok azzal, hogy a történelem során a háborúk döntő többsége – beleértve ebbe a jelenleg zajló fegyveres konfliktusokat is – igazságtalan volt. Ez a kontingens körülmény azonban nem változtatja meg a háború indításának jogos okait, a hadviselés menetét előíró normatív szabályokat, ahogy a háborút lezáró felelősségre vonás és büntetés morális elveit sem. Ez az etikai dimenzióra általánosan igaz: az a tény, hogy egyetlen ember sem cselekszik tökéletes összhangban Kant kategorikus imperatívuszával, még nem teszi azt hamissá.

Ha egy háború igazságtalan, akkor mindegy, hogy a küzdelemben számszeríjat, gépkarabélyt vagy offenzív drónt vetünk be, cselekedeteink nem lesznek legitimálhatók. Igazságos háborúban azonban az autonóm fegyverrendszerek alkalmazása összhangban áll a szükségtelen kockázat elvével, bevetésük ezért morális kötelesség.

A szerző az ELTE BTK Filozófiai Intézetének doktorandusza, az Eötvös Collegium tagja.  A Filoman filozófusainak további cikkei itt olvashatók.