Nyílt levél: ha öntudatra ébred a mesterséges intelligencia, úgy kell bánnunk vele, mint az állatokkal?

Több mint száz szakértő öt alapelvet fogalmazott meg arra, hogyan lehetne felelősen fejleszteni az olyan típusú mesterséges intelligenciát (AI), amely a jövőben akár öntudatra ébredhet. A nyílt levelet aláíró tudósok, szakemberek és gondolkodók elsősorban a technológia gyors és átláthatatlan fejlődése miatt fejezték ki aggodalmukat.
Az elvek között szerepel, hogy „a rossz bánásmód és a szenvedés” megelőzése érdekében prioritást kell élvezniük az olyan kutatásoknak, amelyek a mesterséges intelligenciák tudatosságának megértésére és értékelésére irányulnak. Emellett fontosnak tartják a tudatos AI-rendszerek fejlesztésére vonatkozó korlátozások megállapítását, az ilyen rendszerek fejlesztésének fokozatosságát, a kutatási eredmények nyilvánossá tételét, valamint azt, hogy az érintettek (és ez valószínűleg Sam Altmanra és a hype-központú techszférára vonatkozik elsősorban) kerüljék a túlzottan magabiztos nyilatkozatokat a tudatos AI létrehozásával kapcsolatban.
„Elképzelhető, hogy nagyszámú tudatos rendszert lehet létrehozni és szenvedésre késztetni” – írják, és kifejtik, hogy ha erős AI-rendszerek képesek lennének önmagukat reprodukálni, az „nagyszámú új, erkölcsi megfontolást érdemlő lény létrehozásához” vezethetne.
A levéllel egy időben egy tanulmány is megjelent a Journal of Artificial Intelligence Research című folyóiratban, amit az Oxfordi Egyetem és az Athéni Közgazdaságtudományi Egyetem kutatói jegyeznek. Ebben leírják, hogy morális iránymutatásra azoknak a techcégeknek is szükségük van, amelyek nem törekednek kifejezetten arra, hogy tudatos rendszereket hozzanak létre, ugyanis elképzelhető, hogy azokat véletlenül is megalkothatják. Megjegyzik, a tudatosság definíciójától kezdve az AI-ban rejlő valós lehetőségekig számos területen széleskörű bizonytalanság uralkodik, de a következmények olyan súlyosak lehetnek, hogy a kérdést nem szabad figyelmen kívül hagyni.
A kutatók felvetik annak a lehetőségét, hogy egy tudatos AI az állatokkal kerülhet egy szintre erkölcsi értelemben – vagyis a tetteikért felelősségre vonható emberekkel ellentétben valamiféle tudattal rendelkező, de nem felelősségteljesen viselkedő lények lehetnek. Ebben az esetben az AI szenvedésre késztetése és a rendszer lekapcsolása az állatkínzáshoz és egy állat megöléséhez lenne hasonló.
Tavaly egy rangos brit és amerikai egyetemek AI-kutatóiból álló csoport jelezte, hogy a dolgok állása szerint reális esély van arra, hogy 2035-re egyes AI-rendszerek elérjék a tudatosságot, és ezért minél előbb le kell fektetni az erkölcsi szabályokat. Korábban a Google DeepMind vezére, a Nobel-díjas Demis Hassabis is arra figyelmeztetett, hogy bár az AI-rendszerek még biztosan nem tudatosak, a jövőben azzá válhatnak.
Kapcsolódó cikkek

AI-kutatók és filozófusok sürgetik a mesterséges intelligencia tudatosságának vizsgálatát

