Ez egyszer az emberiség történetében szeretnénk nem utólag bénázni, amikor feltakarítunk a technológia után

2021.11.22. · tudomány

Elképzelhető, hogy az algoritmusok fejlesztőinek szóló, gombaként szaporodó etikai iránymutatások csak politikai manőverezésre szolgálnak? Lehet, hogy a magasztos célok mögött részben „ethics washing”, azaz a morális szempontok alaptalan hirdetése áll? Egyáltalán, hogy lehet az, hogy a sok, potenciálisan káros technológia közül pont a mesterséges intelligenciát pécézték ki a szabályozók?

A mesterséges intelligencia etikájáról és az etikai iránymutatások kritikájáról adott ki nemrég különleges számot az Információs Társadalom című folyóirat a BME Gazdaság- és Társadalomtudományi Kara, valamint a Mesterséges Intelligencia Nemzeti Laboratórium (MILAB) támogatásával. A különszámba többek között az ELKH Társadalomtudományi Kutatóközpontból, az ELTE Bölcsészkarról, Kolozsvárról és a Tübingeni Egyetemről is érkezett szöveg. Az előszót Tilesch György, a téma nemzetközi szinten elismert kutatója, a Qubit által is szemlézett Between Brains szerzője írta, az alábbiakban pedig főszerkesztőjével, Héder Mihállyal, a BME filozófia és tudománytörténet tanszékének docensével, a SZTAKI tudományos főmunkatársával beszélgettünk.

Qubit: Miről szól tulajdonképpen a mesterséges intelligencia etikájának kritikája?

Héder Mihály: Alapvetően arról, hogy nézzünk mögé a szabályozási hullám okainak. Saját cikkemben például azt feszegetem, hogy mára eljutottunk odáig, hogy minden korábbinál dinamikusabb a társadalomképünk, és minden eddiginél nagyobb mértékben alakíthatónak tartjuk azt. Legkésőbb a felvilágosodás után kezdett terjedni a gondolat, hogy racionális elvek mentén meg lehet változtatni az alapszabályokat, és ennek beteljesedése, egyfajta műszaki felvilágosodás történik jelenleg, vagyis már a technológia-alkotóknak is beleszólnánk az ügyeibe, és nem fogadjuk el azt, ahogy a mérnökök és a tudósok megalkotnak egy új technológiát, és annak mellékhatásai lesznek, nekünk pedig ezzel kell együtt élni.

photo_camera Fotó: Fotó: Horváth Péter

Korábban használtunk ólmozott üzemanyagot, majd rájöttünk, hogy nem jó; kitaláltuk a hajtógázokat, de rájöttünk, hogy ózonlyukat okoznak; használtuk a DDT-t, aztán végtaghiányos csecsemők születtek; nemrég volt a dízelbotrány és a többi, ezekből pedig társadalmi szinten elegünk van. Mostanra értünk el oda, hogy eleve jóléti szempontokat kell figyelembe venni, a tervezés legelső lépésétől, tehát nem utólag akarunk takarítani a technológia után. Gyakorlatilag talán csak pechje van az MI-nek, amit most annyira akarnak szabályozni világszerte. Szerintem ez nem a konkrét technológiáról szól, valójában egy hosszabb folyamat eredménye.

Probléma ott lehet ebből, hogy például számos ajánlásban le van írva, hogy az európai értékeket bele kell programozni valahogy az algoritmikus rendszerekbe, ezen a kitételen viszont elakadhatnak az informatikusok, hiszen túl általános; nem értik, hogy egész egyszerűen extra körültekintésre, kockázatelemzésre és hatásvizsgálatra akarják őket rávenni a korábbihoz képest. Hiszen ha ezeknek az etikai iránymutatásoknak a folyó szövegét olvassák, ezt nem lehet kiolvasni belőlük. Ezek inkább katekizmushoz hasonló, dogmatikus tételek, azzal súlyosbítva, hogy nem, vagy alig térnek rá a hogyan kérdésére.

Qubit: Tehát ha jól értem, jelenleg nagy a szakadék aközött, amit az etikai iránymutatások előírnak és amit a fejlesztők le akarnak programozni.

Héder Mihály: Igen, ez az egyik nagy gond, ám ez sokat javult az új európai uniós javaslatban, a korábbi ajánlások és iránymutatások tényleg homályosak voltak, miközben nagyon átjött belőlük a jóindulat. Az új EU-s szabályozás ilyen szempontból az egyik legjobb lesz, ha elfogadják. Kockázati besorolásokkal él, mint a GDPR, és ha alacsony kockázatról van szó, azzal nem is kell foglalkozni tovább. Ebben olyan kitételek vannak, mint hogy ne legyen társadalmi pontrendszer, a HR-részleg a CV-ket ne AI segítségével szortírozza, mert az emberek sorsáról dönt, ugyanakkor a számítógépes játékokban a kis katonák útkereső algoritmusa alacsony kockázatú, úgyhogy etikai szempontból nem kell vizsgálni.

Viszont még mindig nagyon messze vagyunk attól, hogy értve tudják használni az ajánlásokat azok, akiknek kell, és félő az, hogy ebből is meddő dobozpipálgatás lesz egy űrlapon. Az útmutatások viszonylagos általánossága miatt a legtöbb dologra rá lehet fogni, hogy megfelelt. Emiatt alapvetően az most a feladat, hogy eszközt adjunk az algoritmusok fejlesztői kezébe, hogy ez hogyan fordulhat le a gyakorlati terepre úgy, hogy a lényeg nem veszik el. Tehát egyfajta alkalmazottetika-értelmezési és képzési feladatot jelent.

Qubit: Elképzelhető, hogy a jövőben az informatikus hallgatók ebben a témában etikakurzust hallgassanak, és például megoldják az önvezető autóknál gyakran felmerülő villamosproblémát (trolley problem)?

Héder Mihály: A kérdés első felére a válasz igen, sőt, a BME-n harmadik féléve tanítom a Mesterséges intelligencia etikája című kurzust, és egészen régóta van mérnöketika tárgy is. A hamarosan induló emberközpontú mesterséges intelligencia mesterszak pedig új szintre emeli majd a téma oktatását. Viszont a kérdés második felére, az elszabadult villamos dilemmára reagálva, pontosan ez az a problématípus, amit az első két órán szóba se hoz az ember, vagy felhozza, de már rögtön kritikai kontextusban. Ha egész félévben nem említeném meg, az sem lenne baj, mert nem azt a problémát képviseli, amit meg kell oldani, és így az informatikushallgató nem tudja összekötni a való élettel.

Hiszen ha az MTI Moral Machine tesztjét negyvenmilliószor kitöltötték, és a végén eldöntötték, hogy a dél-amerikaiak így, az indiaiak úgy döntenének, kit üssön el az önvezető autó az adott helyzetben, időset vagy fiatalt, akkor az informatikushallgató le fogja azt programozni? Az ő tervezési folyamatában ezek a problémák nem jelennek meg. Neki olyasmiket kell eldöntenie például egy önvezető járműnél, hogy milyen felbontású legyen a kamera, vagy hány radar legyen és hol. És a kettő között nincs út. Ezért nem kezdhetjük a morális dilemmákkal. A legrosszabb pedig persze az, hogy ezek a dilemmák kétezer éve nincsenek megoldva konszenzusosan. Miért vezetnénk vissza egy problémát egy megoldatlan filozófiai kérdésre?

Qubit: Arra tudna példát mondani, hogy milyen etikai problémákat tudnak ők a tervezési szinten megoldani?

Héder Mihály: Mondok általánosat, aztán mondok informatikait. A sima mérnöketika tárgynál az első órán szerte a világon elmesélik a kansasi Hyatt Regency Hotel esetét, ami sztenderd példa. Az épület egy sebtében jóváhagyott, jelentéktelennek tűnő változtatásból fakadó hiba miatt 1982-ben összedőlt, és rengetegen meghaltak. A hallgatók megkapják ezt a példát, és abba a helyzetbe helyezzük őket, hogy képzeljék el, ahogy ők is jóváhagyják ezt a változtatást, majd kiderül, hogy ennek következtében rengetegen meghalnak. Rögtön jön utána a kérdés, hogy milyen érzés lesz úgy létezni a továbbiakban, hogy valaki 27 évesen egy ilyen tragédia előidézői között van.

És ha ezt a lelkiállapotot el akarja kerülni, akkor mit kell tennie? Le kell bontani azt az általános vélekedést, hogy az etika és a társadalmi igazságosságra törekvés egy olykor költségesen elérhető külső kívánalom, fennkölt megrendelői igény; helyette el kell jutni odáig, hogy a mérnök lelki nyugalmának az előfeltétele, hogy a rendszer jól működjön. Mi lenne, ha ő tervezte volna a dízelbotrány egyik főszereplőjét, a híres, okosított dízelmotorok egyikét? Mit mond a gyermekeinek? A főnöke utasítására tette? De a német autóiparban nem tudott másik állást keresni? Úgy véli, nem az ő dolga volt eldönteni, hanem a menedzsernek, hogy csinál egy olyan motort, ami csak a tesztpadon teljesít jól?

Lehet és kell ezekkel a társas szituációkkal foglalkozni, és akkor megérti, hogy ez nem arról szól, hogy ő csinálja a jó rendszert, aztán jönnek ezek az aggódó nem-szakmabeliek, hanem az etika beemelése az ő saját, mérnöki munkájának a még magasabb szintre emelését jelenti, ami nélkül nem tud továbblépni a fejlődésben. A botrányos dízelmotor nem egy műszaki értelemben sikeres - hiszen működik és azt csinálja amit kell - teljesítése egy sajnálatos módon amorális specifikációnak, hanem mérnöki szakmai kudarc.

És ha jó mérnök akar lenni, akkor ezúttal nem az anyagtudományt, hanem a nem végrehajtást és whistleblowerkedést kell megtanulnia, mert ezt kívánja meg a feladat. Ha ezt nem érti, akkor csak közepes mérnök lehet.

Az MI terén pedig például megbeszéljük, hogy milyen belső reprezentációk kellenek egy önvezető jármű működéséhez. A hallgatók azt szokták felhozni, miért nem elég az, ha mondjuk Asimov törvényeit implementáljuk, tehát, hogy a gép ne ártson az embernek. De mi van akkor, ha az autó nejlonszatyornak nézi az embert? Szinte minden önvezető autós baleset egy észlelési tévedés vagy torzítás eredménye. Felüljárónak nézi, pedig betonfal volt, kerékpárosnak nézi, pedig gyalogos volt, és így tovább. Kérdés, hogy akkor ahhoz, hogy ezt elkerülje, objektumfelismerésben neki hány százalékot kell teljesítenie, hány ilyen szituáció van, vagy ha van egy csomó jármű, akkor hányszor hibázhat ahhoz, hogy ne legyen minden nap egy halott. Egy több millió kilométeres tesztvezetés során mit jelent még egy nagyon kicsi hibalehetőség is, ha extrapoláljuk. És akkor innen léphet tovább, ez már egy olyan mérőszám, amit a gépi tanulásban ismernek, és akkor megérti, hogy mi az a sztenderd - és nincs benne semmilyen „kit üssön el az önvezető autó” dilemma.

Qubit: A leghatékonyabb algoritmusok és a hozzájuk tartozó adatbázisok nagyon kevés techcég kezében összpontosulnak, és egyébként ők törekszenek arra, hogy azokat a kutatókat, akik ezzel foglalkoznak, begyűjtsék maguknak, vagyis a kutatás maga nem a közjó érdekében, hanem bizonyos piaci szereplők érdekei mentén történik. Itt nem hiányzik a transzparencia?

Héder Mihály: Ez egy nagyon világos példa, igen, ez egy olyan helyzet, amivel lehetne és kellene is mit kezdeni. Az EU nagyon jó abban, hogy Open Access és Open Science deklarációkat tesz, kiköti, szerintem helyesen, hogy amire pénzt ad, arról transzparensen be kell számolni, és most kezdi ezt alkalmazni az adathalmazok esetén is. Ez gyakorlatilag szabályozási kérdés.

Elképesztően könnyű levezetni többféle etikai keretrendszerben, hogy az önvezető jármű esetében miért előnyös az emberiség számára minden szempontból az objektumfelismerő, vagyis ember-, fa-, gyerek-, babakocsi-felismerő tanuló-adatbázis, annotált képadatbázisok megosztása. Nyilván lehet úgy gondolkodni, hogy egy jó önvezető autót gyártó cégnek piaci előnye származik a jó, de privát adatbázisból, és majd akkor a piac megoldja, de szerintem ez inkább zavart okoz a piacon. Az adat részleges monopolhelyzetbe hozhat bizonyos szereplőket, ha viszont megosztják az adatokat, akkor belépési pontot teremtenek másoknak, ez pedig a piacot erősíti, vagyis teljesen kapitalista gondolat. Viszont a tanuló adatbázisok megosztásával szabályozóként azért is foglalkoznék, mert ha minden egyetemista letölti ezt a több terabájtnyi adatbázist, és elkezd vele játszani, akkor kiderülnek a hibák, javítási lehetőségek bukkannak a felszínre, vagyis az egész ipart tenné jobbá. Tehát meg kellene győzni az iparági szereplőket, hogy ez az az ár, ami minden hajót felemel.

Qubit: Elképzelhető az is, hogy létrejön egy FDA-szerű szabályozó szerv, egy algoritmusfelügyelet?

Héder Mihály: Szerintem elképzelhető. Amint említettem, az EU-s új szabályozástervezet megteremti annak az alapját, hogy kockázati besorolások legyenek, és így különböztetjük meg az MI-megoldásokat. A kínai típusú pontrendszer bevezetése, az öldöklő, automatizált fegyverek fejlesztése tilos, és a kettő között van alacsonyabb és magasabb kockázat. Tehát ha nem esünk át nagyon a ló túlsó oldalára, amikor nem lehet semmit sem csinálni, akkor érdemes megfontolni.

Ha hasonlatot kellene mondanom a túlszabályozásra, akkor képzeljük el, milyen lenne egy informatikuskamara, és milyen lenne, ha az operációs rendszer telepítését csak ők hitelesíthetnék. Ugyanakkor például a közjegyző intézménye létezik, és egyértelműek az előnyei, szolgáltatásként nézünk rá. Szóval a kérdés, hogy mit kapunk egy ilyenért cserébe.

Qubit: A tanulmányban az emberi kontrollról azt írta, feszültség van aközött, hogy át is akarunk adni bizonyos mértékű felelősséget az algoritmusoknak, meg nem is. Hogyan lehetne ezt megnyugtatóan feloldani?

Héder Mihály: Ez abszolút elvi kérdés, itt arról van szó, hogy egymásnak logikailag ellentmondó dolgokat akarunk egyszerre. Egyrészt akarom azt is, hogy ne én mondjam meg, mit csináljon az algoritmus, mert én nem tudom leprogramozni, tehát gépi tanulást használok, plasztikus, alakítható neurális hálót teszek bele és addig alakítgatom, amíg azt nem csinálja, amit akarok; másrészt meg szeretném a kontrollérzést is, hogy olyan legyen, mint egy hagyományos program, az történjen sorról sorra, amit odaírtam.

Ennek az lehet a feloldása, hogy megszokjuk a transzparencia nélküli bizalom gondolatát. Hogy úgy fogunk bízni a gépben, mint egy másik emberben. Hiszen azt honnan tudjuk, mi folyik egy ember fejében? Totálisan fekete dobozok vagyunk egymás számára, mégis működgetünk valahogyan. Ám az, hogy hogyan lehet a gépekkel kapcsolatban azt elérni, hogy ne féljünk attól, hogy nem értjük őket, fontos kérdés, mert a komplexitás miatt tényleg nem fogjuk érteni őket, viszont a használatukra kényszerülhetünk.

Qubit: És ha a jövőben valakinek együtt kell dolgoznia egy algoritmussal, akkor úgy érdemes erről gondolkodnia, mint egy eszközről vagy mint egy új munkatársról?

Héder Mihály: Szerintem ez viszont már nem választás kérdése lesz. Ha antropomorf viselkedési jegyeket mutat, akkor az agy egyszerűen azt fogja mondani, hogy személyről van szó. Vannak erre tesztek, és találhatunk videókat arról is, ahogy a négyéves kislány találkozik egy robottal, és ölelgetni, köszön neki; egyszerűen azért, mert így van huzalozva az agyunk. Azzal már megerőltetnénk az agyunkat, ha folyamatosan emlékeztetnénk magunkat arra, hogy ez csak egy gép.

De egyébként sokkal mélyebb válasz is van erre: a modern tudomány naturalizált keretben gondolkodik, ebből pedig az jön ki, hogy kimondva vagy kimondatlanul az embert is úgy értelmezi, hogy az is egy gép. A szívbillentyű csak egy kis csap, az agysejtek kommunikációs hálózatot alkotnak, satöbbi. Ha a gépként értelmezett emberek képesek emberi viselkedést, egymásnak is meggyőző mentális élményt produkálni, akkor milyen alapon különböztetjük meg őket a gépektől? Nyilván komplexitás alapján lehet, de ha egyszer a robotok, az algoritmusok elkezdenek intelligensen viselkedni, ez egyszerűen már nem választás kérdése lesz, a legtöbben pszeudo-személyként fognak gondolkodni ezekről, míg mások majd tüntetnek ellenük. Közben az észlelt MI-k világosan nem humánok, hiszen sokkal gyorsabban adnak össze számokat, pillanatok alatt kiszámolják az útvonalat Budapest és New York között, tehát szuperhumán képességekkel rendelkeznek, megint csak más szempontból viszont inhumánok, közömbösséget mutatnak, nincsenek érzelmeik.

Az a kérdés, kialakulhat-e olyan gondolkodási gyakorlat sokakban, mint amilyen az intelligens kutyák esetében, akiknek nem adunk olyan nagy kontrollt bizonyos szempontból, és nagyon durván beleavatkozunk az életükbe, mégsem hagyjuk őket szenvedni, valamint nem is tekintünk élettelenként rájuk. És ahogy a korai állatvédőkre is, egyesek majd teljes megrökönyödéssel néznek azokra, akik elfogadják ennek az új személytípusnak, a mesterséges személynek a koncepcióját.

Qubit: Nem lesz egyszerű később eldönteni egy kvázi-személy felelősségét a bíróságon.

Héder Mihály: Igen, de ha belegondolunk, az állatokat sem állítjuk bíróság elé, pedig sok szempontból elismerjük a morális státuszukat, tehát ez a két dolog nem mindig jár együtt. Nagyon gyakran átkapcsolnak itt a robotjogokra – Gunkel Robot Rights című könyvét ajánlom a témában –, de az, hogy morális státusszal rendelkezik vagy az, hogy jogokkal rendelkezik, az két külön dolog. Az, hogy gépek vagy más élettelen tárgyak morális státusszal rendelkezzenek, nem példa nélküli. A BME műemlék épületénél, ami egy rakás kő és malter, könnyeket ejtenek az építészek, és nem lehet átalakítani, leszigetelni sem, mert épített környezetként kulturális közeget teremt maga köré, amiben az emberek fenntartják és megőrzik ugyanolyannak.

A morális státusz viszont valójában csak annyit jelent, hogy az embernek figyelembe kell vennie a másik fél érdekeit, érdemi szinten elismerve ezzel a létezését. Tehát ha azt gondolom, hogy a neurális hálók ugyanúgy képesek örömöt és fájdalmat érezni, mint az ember, akkor ezt figyelembe kell venni. Lehet, hogy ez a kvázi-személy olyan lesz, hogy bármikor kikapcsolhatjuk, nem szavazhat, nem lehet vagyona, de egyébként bizonyos dolgokat nem tehetünk meg vele.

Qubit: Ez már az út az általános mesterséges intelligencia és a szuperintelligencia felé, amikor már meg kell fontolnunk, hogyan gondolkodunk a kialakuló objektumokról?

Héder Mihály: Korábban említettem, hogy végre, ez egyszer az emberiség történetében szeretnénk nem utólag bénázni, amikor feltakarítunk a technológia után, és ez is egy ilyen dolog. Mivel most még nem aktuális az általános MI és a szuperintelligencia, de nem is elvi képtelenség és nem is feltétlenül a nagyon-nagyon távoli jövő zenéje, ezért aktuális az a kérdés, hogy milyen morális státusszal bírjanak.

Most van az optimum időablak, sőt kezd kifutni, hogy ilyesmiken gondolkodjunk. És azért jön el hamarabb, mint hinnéd, és nem akkor, amikor a tévében majd megjelenik egy intelligens AI és elkezd beszélni, mert az nagyon nem állná meg a helyét, ha például én addig bármit megtehetnék egy robottal, amíg nem lenne ténylegesen bizonyítva, hogy képes fájdalmat átélni. Fordítva állná meg a helyét: akkor tehetnék meg vele bármit, ha bebizonyosodna róla, hogy nem képes semmilyen fájdalmat, érzelmet átélni. És még akkor is van etikai érv ez ellen a bánásmód ellen, mert humánnak tűnő dolgokat bántunk tét nélkül, és ez kihat arra, hogy más humánokat hogyan kezelünk - erre van is irodalom. Szóval még ha azt is gondoljuk, hogy tutira nem tud fájdalmat érezni, akkor is meg kell fontolni, hogy normálisan viselkedjünk vele szemben, a saját és humán társaink érdekében.

Amikor elérünk egy olyan komplexitáshoz, ahol egyáltalán felmerülhet ez a gondolat, ott már kellene gondolkodni ezen. Azoknak, akik például agyszöveteket növesztenek laborban, abba kell hagyniuk a munkát egy adott méret után, hogy etikusak maradjanak, és nehogy olyan agyakat növesszenek, amelyek adott esetben érzelmeket élnek át. Ez az analógia az algoritmusok esetében is érvényes lehet. A pontos határok keresése viszont már nagyon mély filozófiai kérdésekhez visz el bennünket.

Kapcsolódó cikkek a Qubiten:

link Forrás
link Forrás
link Forrás