Nyílt levél: ha öntudatra ébred a mesterséges intelligencia, úgy kell bánnunk vele, mint az állatokkal?

02.04. · TECH

Több mint száz szakértő öt alapelvet fogalmazott meg arra, hogyan lehetne felelősen fejleszteni az olyan típusú mesterséges intelligenciát (AI), amely a jövőben akár öntudatra ébredhet. A nyílt levelet aláíró tudósok, szakemberek és gondolkodók elsősorban a technológia gyors és átláthatatlan fejlődése miatt fejezték ki aggodalmukat.

Az elvek között szerepel, hogy „a rossz bánásmód és a szenvedés” megelőzése érdekében prioritást kell élvezniük az olyan kutatásoknak, amelyek a mesterséges intelligenciák tudatosságának megértésére és értékelésére irányulnak. Emellett fontosnak tartják a tudatos AI-rendszerek fejlesztésére vonatkozó korlátozások megállapítását, az ilyen rendszerek fejlesztésének fokozatosságát, a kutatási eredmények nyilvánossá tételét, valamint azt, hogy az érintettek (és ez valószínűleg Sam Altmanra és a hype-központú techszférára vonatkozik elsősorban) kerüljék a túlzottan magabiztos nyilatkozatokat a tudatos AI létrehozásával kapcsolatban.

„Elképzelhető, hogy nagyszámú tudatos rendszert lehet létrehozni és szenvedésre késztetni” – írják, és kifejtik, hogy ha erős AI-rendszerek képesek lennének önmagukat reprodukálni, az „nagyszámú új, erkölcsi megfontolást érdemlő lény létrehozásához” vezethetne.

A levéllel egy időben egy tanulmány is megjelent a Journal of Artificial Intelligence Research című folyóiratban, amit az Oxfordi Egyetem és az Athéni Közgazdaságtudományi Egyetem kutatói jegyeznek. Ebben leírják, hogy morális iránymutatásra azoknak a techcégeknek is szükségük van, amelyek nem törekednek kifejezetten arra, hogy tudatos rendszereket hozzanak létre, ugyanis elképzelhető, hogy azokat véletlenül is megalkothatják. Megjegyzik, a tudatosság definíciójától kezdve az AI-ban rejlő valós lehetőségekig számos területen széleskörű bizonytalanság uralkodik, de a következmények olyan súlyosak lehetnek, hogy a kérdést nem szabad figyelmen kívül hagyni.

A kutatók felvetik annak a lehetőségét, hogy egy tudatos AI az állatokkal kerülhet egy szintre erkölcsi értelemben – vagyis a tetteikért felelősségre vonható emberekkel ellentétben valamiféle tudattal rendelkező, de nem felelősségteljesen viselkedő lények lehetnek. Ebben az esetben az AI szenvedésre késztetése és a rendszer lekapcsolása az állatkínzáshoz és egy állat megöléséhez lenne hasonló.

Tavaly egy rangos brit és amerikai egyetemek AI-kutatóiból álló csoport jelezte, hogy a dolgok állása szerint reális esély van arra, hogy 2035-re egyes AI-rendszerek elérjék a tudatosságot, és ezért minél előbb le kell fektetni az erkölcsi szabályokat. Korábban a Google DeepMind vezére, a Nobel-díjas Demis Hassabis is arra figyelmeztetett, hogy bár az AI-rendszerek még biztosan nem tudatosak, a jövőben azzá válhatnak.