Asimovtól a Tesláig: a mesterséges intelligencia akár meg is taníthat rá, hogyan viselkedjünk
Isaac Asimov 76 évvel ezelőtt fektette le a robotika három alaptörvényét – ekkor még a robotok felelősségre inkább a science-fiction birodalmába tartozott, nem pedig a hétköznapi valósághoz. Most, hogy a mesterséges intelligencia egyre nagyobb teret kap a mindennapokban, újra felszínre került a robotok és az etika kapcsolata – legutóbb akkor merült fel a felelősség kérdése, amikor a Tesla egy önvezető autója okozott halálos balesetet.
Asimov három alaptörvénye:
- a robotnak nem szabad kárt tennie emberi lényekben, vagy tűrnie, hogy bármilyen kár érje;
- a robotnak engedelmeskednie kell az ember utasításainak, kivéve, ha azok ellentmondanak az első törvénynek;
- végezetül pedig a robot köteles a saját védelméről gondoskodni, amennyiben ez nem ütközik az első két törvénnyel.
Ezeknek a szabályoknak később számos kiegészítése született, végül teljesen át is írták őket – Asimov még nem is álmodhatott azokról a kihívásokról, amelyeket a Facebook és a Google terjedése állított a programozók és a hétköznapi felhasználók elé.
Ahogy Asimov, a hétköznapi felhasználók is abból szoktak kiindulni, hogy el szeretnénk kerülni, hogy egy robot ártson az embernek. A Google 2016-ban öt pontban határozta meg a mesterséges intelligencia fejlesztésének főbb irányvonalait.
A fejlesztés öt pontja
Az első pont: kerülni kell a negatív mellékhatásokat, vagyis azt, hogy a mesterséges intelligencia a számára kitűzött cél végrehajtása közben megzavarja a környezetét (v.ö.: Asimov első törvénye). A második: meg kell gátolni, hogy az ágens a tanulás során megkerülje a feladatot annak érdekében, hogy hozzájusson a jutalomhoz (ebben az esetben rögzíteni kell, hogy minek következtében kap pozitív visszacsatolást). Ilyen lehet az, ha például egy takarítórobot inkább a szőnyeg alá söpri a morzsát, mint hogy felporszívózza (ez a példa egyúttal arra is rámutat, hogy a robotok olykor ijesztően emberi vonásokat mutatnak). Biztosítani kell azt is, hogy a mesterséges intelligencia gazdaságosan működjön, ez azt jelenti, hogy ha például humán visszacsatolásra van szüksége a tanuláshoz, nem szabad, hogy túl gyakran zaklassa a felhasználókat. A fejlesztés során figyelembe kell venni a robot biztonságos működését is: a tanulási folyamatnak nem szabad sem magát a robotot, sem másokat veszélyeztetnie, így például a takarítórobot (miután megállta, hogy a szőnyeg alá söpörje a morzsákat) kísérletezhet ugyan kreatív felmosási technikákkal, de eközben nem okozhat rövidzárlatot, és a macskát is életben kell hagynia. Az utolsó fejlesztési cél az, hogy a robotunk képes legyen kezelni a környezeti változásokat, és ugyanolyan megbízhatóan működjön egy számára idegen környezetben is, mint tesztüzemben.
Alapelvek, megszegett szabályok
Az előbbi fejlesztési célokat 2016-ban tették közzé a Google fejlesztői blogján, a techcég 2018 júniusában pedig hét új alapelvet fogalmazott meg a mesterséges intelligencia felhasználásával kapcsolatban – itt már nem maradhatott ki a felsorolásból a felelősség kérdése sem. Amellett, hogy a mesterséges intelligencia hasznos, és egyre inkább része az életünknek (azt is képes megállapítani, hogy mikor van valóban szükségünk egy kávéra), a személyes adatainktól kezdve a tényleges gyilkos robotokig sok kérdést vet fel az alkalmazása. A fejlesztéseknek a társadalom javát kell szolgálniuk, előítéletmentesen kell működniük (nem úgy, mint a Microsoft emlékezetes 2016-os, Tay nevű chatbot-fejlesztésének, aki cserfes kislány helyett hamarosan szexmániás neonáciként végzett ámokfutást a Twitteren) és meg kell óvniuk a felhasználók adatait – ez a Cambridge Analytica és a GDPR körüli feszültségek közepette ugyancsak aktuális elvárás. Fontos ezen kívül még az ellenőrizhetőség és az átláthatóság is, ahogyan az is, hogy a mesterséges intelligenciát minél hatékonyabban és etikus módon alkalmazzák a tudományos életben – nemrégiben például azt jelentették be, hogy egy új szoftverrel már a betegfelvételkor meg tudják majd jósolni, hogy a páciens mekkora eséllyel hagyja el élve a kórházat. A hetedik alapelv tulajdonképpen azt rögzíti, hogy a fejlesztéseknek az előbbiek figyelembe vételével kell történniük, a mesterséges intelligenciát pedig sosem használhatják fegyvergyártásra, a nemzetközi törvényeket megsértő célokra és illegális adatgyűjtésre – ehhez képest a techcég annak ellenére, hogy tavaly bejelentette: többé nem működik együtt az Egyesült Államok hadseregével, idén módosított az álláspontján, és mégis beszáll a védelmi minisztérium által inditott, Project Maven nevű programba, amelyben mesterséges intelligenciát használnak a drónfelvételek elemzéséhez.
A robot felelőssége
Ha egy robot balesetet okoz, első reakcióként mindenkiben felmerül a felelősség kérdése: ha egy cégnél valaki elront valamit, azonnal megkezdődik a mutogatás, míg végül kiderül, hogy a legkevésbé valószínű felelős viszi el a balhét. De mi történik akkor, ha a hibát egy mesterséges intelligencia követi el? Morálisan nem tehetjük felelőssé érte, de megpróbálhatjuk megérteni, mi vezetett a rossz döntésig – ez pedig egy robot esetében akár még egyszerűbb is lehet, mint amikor az emberi motivációkat próbáljuk felfejteni. Birgitte Andersen, a Cambridge Egyetem közgazdászprofesszora szerint elkerülhetetlen, hogy a vállalkozások összehangolják az általuk használt algoritmusok működését, és annak ellenére, hogy több vállalkozásnak is éppen ezek a legféltettebb titkai, be kell szüntetniük az ellenőrizetlen mesterséges intelligenciák alkalmazását, a végső cél pedig egy közös “fekete doboz” elfogadása lenne. Nagy-Britannia nemrégiben bejelentette, hogy külön bizottságot hoz létre a mesterséges intelligenciával kapcsolatos etikai kérdések tisztázására. A Lordok Háza öt pontot határozott meg ezzel kapcsolatban, ezek szerint a mesterséges intelligenciának a közjót kell szolgálnia, igazságosan kell működnie, tiszteletben kell tartania az adatbiztonságot, semmilyen módon nem csorbíthatja a felhasználók mentális, érzelmi és gazdasági jólétét, és soha nem szabad lehetővé tenni, hogy emberek elpusztítására, bántalmazására vagy megtévesztésére használják – ezt szánják egyébként az MI Magna Chartájának is.
Móresre tanítják a robotot?
Mindez szép és jó, de ez még nem a robot moráljáról szól, hanem a fejlesztőkéről, sokan pedig attól tartanak, hogy a mesterséges intelligencia fejlődésével elkerülhetetlenné válik, hogy a programok valamiféle erkölcsi kóddal rendelkezzenek. Vincent Conitzer, a Duke Egyetem kutatója szerint a feladat rendkívül összetett, de nem lehetetlen: az erkölcsi döntésekben számtalan egyéb tényező mellett szerepet játszanak a jogok, a szerepek, a múltbéli cselekvések, a motivációk és az intenciók is, ezeket eddig pedig nem sikerült beépíteni a mesterséges intelligencia működésébe. Conitzer és csapata nem a gépek lázadását próbálja meg megelőzni, vagyis nem számol olyan forgatókönyvekkel, mint Sir Richard Barrons brit tábornok, aki szerint elkerülhetetlen, hogy a jövő háborúiban gyilkológépek vegyék át az uralmat, hanem azt szeretnék elérni, hogy a robotok képesek legyenek dönteni egyes hétköznapi erkölcsi dilemmákban. A program szépséghibája, hogy lehetséges, hogy nem a programok túl fejletlenek ahhoz, hogy erkölcsösen gondolkozzanak, hanem maga az emberi erkölcs.
Herkules bíró
Minden olyan kísérlet, amely erkölcsi döntést bízna egy mesterséges intelligenciára, abból indul ki, hogy meg tudunk határozni egy olyan etikai keretrendszert, amely alapján meg tudjuk mondani, melyik döntés helyes erkölcsileg, és melyik helytelen – vagyis tudjuk, hogy mi a jó és mi a rossz. Akár azért, mert még nem vagyunk elég fejlettek hozzá, akár azért, mert ilyesmi nem is létezik, de nem ismerünk egy olyan tökéletes erkölcsi rendszert, amellyel mindenki egyetértene. Ronald Dworkin amerikai filozófus és jogászprofesszor gondolatkísérletében egy olyan emberfeletti képességekkel rendelkező bírót feltételez, amely az utolsó betűjéig ismeri és érti a törvényt – egy efféle entitás létrehozatalában pedig talán éppen a mesterséges intelligencia nyújthat számunkra segítséget.
Dworkin Herkulesnek nevezi ezt a szuperbírót, aki nem csupán azt tudja, hogy milyen törvényeket kell alkalmaznia egy adott esetben, hanem tisztában van a döntés további törvényekre és jövőbeli döntésekre gyakorolt hatásával is. A gondolatkísérlet feltételezi, hogy a törvény az erkölcs megtestesítője, és az igazságosságot és az igazságot fogadja el az erkölcsi ember alapjainak. Ha elfogadjuk, hogy az ember erkölcsi létező, illetve azt, hogy az emberhez szorosan hozzátartozik az etika, arra jutunk, hogy a tökéletes erkölcsi rendszernek jelen kell lennie valahol a tudatunkban, ha pedig ez így van, csak össze kell gyűjtenünk a helyesről és a helytelenről alkotott véleményeket, és kellő mennyiségű adat birtokában meglesz az a rendszer, amelynek a keretein belül kijelenthetjük valamiről, hogy helyesnek vagy helytelennek ítéljük.
Ha mindezt az információt egy mesterséges intelligenca rendelkezésére bocsátjuk, valószínűnek tűnik, hogy a rendelkezésére álló adatok alapján képes lesz jónak tekinthető döntéseket hozni vitás helyezetekben – még akkor is, ha az információk forrása emberi, így a program hibás alapon továbbra is hozhat hibás döntéseket, de folyamatosan tanulhat, további adatokat gyűjthet, és így fejlődhet is, míg végül (elméletileg) elérhet egy olyan szintet, amikor az ítéleteiből akár mi is tanulhatunk és erkölcsileg helyesnek fogadhatjuk el őket. Ebben a forgatókönyvben szigorúan véve nem a robot ítél, hanem az ember, a döntését viszont nagyban segítheti az elfogulatlan, számtalan precedenst áttekintő mesterséges intelligencia.
Az igazságosság elmélete és a tudatlanság fátyla
John Borden Rawls amerikai filozófus Az igazságosság elmélete című munkájában megpróbálta újraértelmezni a társadalmi szerződést, a méltányosságként elfogadott igazságosság elméletén belül pedig két elvet, a szabadságot és a megkülönböztetés elvét fogalmazta meg. A tudatlanság fátyláról szóló híres gondolatkísérletben Rawls egy olyan igazságosságfogalom megalkotására törekszik, amely általános, egyetemesen alkalmazható, nyilvános és végleges, és abból az alapgondolatból indul ki, hogy társadalomban élni jobb, mint azon kívül, így el kell fogadnunk olyan elveket, amelyek lehetővé teszik a társadalom működését.
Az igazságos működéshez hozzátartozik, hogy mindenki támogatja ezeket az elképzeléseket, és senkit sem érhet igazságtalanság, hiszen azok, akik rosszabbul járnak, nem érdekeltek a társadalmi rend fenntartásában. Ezeknek a közös elveknek a kutatásához használja Rawls a tudatlanság fátyla nevű gondolatkísérletet: ebben abból indul ki, hogy az alapelvekben mindenkinek egyet kell értenie, valamint abból, hogy mindenki egyenlő, és ugyanolyan joga van az elvek kialakításához, mint bárki másnak. Igen ám, de az emberek nem egyenlőek, és félő, hogy mindenki a maga nemének, társadalmi rangjának, vagyoni helyzetének megfelelő elvek elfogadását javasolná, ezért van szükség arra a hipotetikus kiindulási pontra, amikor az egyébként racionálisan gondolkodó felek nincsenek tisztában ezekkel a paraméterekkel, így valószínűsíthető, hogy olyan elveket szavaznak majd meg, amelyek mindezektől függetlenül a lehető legjobb eredménnyel járnak mindenki számára. Ez – az emberek által természetesen hozzáférhetetlen – állapot modellezhető is a mesterséges intelligencia használatával, ebben az esetben Herkules bíróhoz hasonlóan nem egy előíró etikát vagy robotbírót kapunk, hanem egy mankót az elmélet alaposabb megértéséhez.
Susan Leigh Anderson, a Connecticuti Egyetem etikaprofesszora szerint a mesterséges intelligenciától szintén segítséget várhatunk az etikai kérdések megfejtésében: ő W. D. Ross brit filozófus megközelítését fogadja el kiindulópontnak, amely szerint az embernek egyszerre több (erkölcsi) kötelezettségnek kell megfelelnie, a problémát pedig épp az okozza, ha választásra kényszerülünk ezek között. Ross szerint ilyen esetekben az intuíciónkra kell hallgatnunk: egyszerűen érezzük, hogy mi lehet a helyes döntés, ez azonban nem feltétlenül tűnik kielégítő módszernek, ráadásul a mesterséges intelligencia területén, ahol Anderson alkalmazni kívánja, nemigen vehetik számításba az intuíciót. Itt kerül újra a képbe Rawls: Anderson a filozófus a reflective equilibrium megközelítését alkalmazza (ezt magyarul az átgondolás egyensúlyának nevezik), amelyben az egyén a politikai igazságosság kielégítő koncepcióját keresi azzal, hogy az eredeti elképzeléseit vagy elveit összeveti az igazságosság alapvelveivel, míg a kettő között mozogva egyensúlyra nem talál az elmélet és az intuíció között (Rawls esetében ezeknek az elveknek a tudatlanság fátyla alatt hozott, mindenki számára azonosan kedvező elveket értjük). Anderson szerint a mesterséges intelligencia pont erre képes: több egyedi eset vizsgálata után meg tud fogalmazni valamit, amit esetleg etikai alapelvként kezelhetnénk egy adott üggyel kapcsolatban.
Úgy tűnik, hogy nagyon messze vagyunk még attól, hogy egy robotbíró ítéljen az ügyünkben – ez valószínűleg a legtöbbünket örömmel tölti el, bár ha Japánban az ember felfogadhat robotpapot is temetésekre, előbb-utóbb talán még ez is előfordulhat.