Nyílt levél: ha öntudatra ébred a mesterséges intelligencia, úgy kell bánnunk vele, mint az állatokkal?

2025. február 4.
TECH

Több mint száz szakértő öt alapelvet fogalmazott meg arra, hogyan lehetne felelősen fejleszteni az olyan típusú mesterséges intelligenciát (AI), amely a jövőben akár öntudatra ébredhet. A nyílt levelet aláíró tudósok, szakemberek és gondolkodók elsősorban a technológia gyors és átláthatatlan fejlődése miatt fejezték ki aggodalmukat.

Az elvek között szerepel, hogy „a rossz bánásmód és a szenvedés” megelőzése érdekében prioritást kell élvezniük az olyan kutatásoknak, amelyek a mesterséges intelligenciák tudatosságának megértésére és értékelésére irányulnak. Emellett fontosnak tartják a tudatos AI-rendszerek fejlesztésére vonatkozó korlátozások megállapítását, az ilyen rendszerek fejlesztésének fokozatosságát, a kutatási eredmények nyilvánossá tételét, valamint azt, hogy az érintettek (és ez valószínűleg Sam Altmanra és a hype-központú techszférára vonatkozik elsősorban) kerüljék a túlzottan magabiztos nyilatkozatokat a tudatos AI létrehozásával kapcsolatban.

„Elképzelhető, hogy nagyszámú tudatos rendszert lehet létrehozni és szenvedésre késztetni” – írják, és kifejtik, hogy ha erős AI-rendszerek képesek lennének önmagukat reprodukálni, az „nagyszámú új, erkölcsi megfontolást érdemlő lény létrehozásához” vezethetne.

A levéllel egy időben egy tanulmány is megjelent a Journal of Artificial Intelligence Research című folyóiratban, amit az Oxfordi Egyetem és az Athéni Közgazdaságtudományi Egyetem kutatói jegyeznek. Ebben leírják, hogy morális iránymutatásra azoknak a techcégeknek is szükségük van, amelyek nem törekednek kifejezetten arra, hogy tudatos rendszereket hozzanak létre, ugyanis elképzelhető, hogy azokat véletlenül is megalkothatják. Megjegyzik, a tudatosság definíciójától kezdve az AI-ban rejlő valós lehetőségekig számos területen széleskörű bizonytalanság uralkodik, de a következmények olyan súlyosak lehetnek, hogy a kérdést nem szabad figyelmen kívül hagyni.

A kutatók felvetik annak a lehetőségét, hogy egy tudatos AI az állatokkal kerülhet egy szintre erkölcsi értelemben – vagyis a tetteikért felelősségre vonható emberekkel ellentétben valamiféle tudattal rendelkező, de nem felelősségteljesen viselkedő lények lehetnek. Ebben az esetben az AI szenvedésre késztetése és a rendszer lekapcsolása az állatkínzáshoz és egy állat megöléséhez lenne hasonló.

Tavaly egy rangos brit és amerikai egyetemek AI-kutatóiból álló csoport jelezte, hogy a dolgok állása szerint reális esély van arra, hogy 2035-re egyes AI-rendszerek elérjék a tudatosságot, és ezért minél előbb le kell fektetni az erkölcsi szabályokat. Korábban a Google DeepMind vezére, a Nobel-díjas Demis Hassabis is arra figyelmeztetett, hogy bár az AI-rendszerek még biztosan nem tudatosak, a jövőben azzá válhatnak.