Csalásra csábít a mesterséges intelligencia használata

szeptember 24.
TECH
  • Link másolása
  • Facebook
  • X (Twitter)
  • Tumblr
  • LinkedIn

A mesterséges intelligencia használata eltávolítja egymástól az ember döntéseit és annak következményeit, így sokan hajlamosabbak olyasmiket is kérni a nagy nyelvi modellektől, amilyenekre saját maguk nem lennének hajlandóak, és más élő embereket sem kérnének meg rá – foglalta össze Zoe Rahwan viselkedéskutató egy 8000 önkéntes részvételével készült kutatás eredményeit.

A kutatók 13 különböző tesztet végeztek el az önkénteseken, és arra jutottak, hogy még a legegyszerűbb felelősséghárítás is katasztrofális hatással volt az erkölcsi érzékükre. Abban az esetben, amikor egy kockával kellett dobniuk, és meg kellett mondaniuk az eredményt, élőben a résztvevők 95 százaléka becsületesen viselkedett – amikor viszont nem személyesen számoltak be az eredményről, hanem a mesterséges intelligencián keresztül, már csak a 75 százalékuk maradt őszinte. Minél nagyobb értéket dobott valaki, annál nagyobb jutalomra számíthatott.

Minden szentnek maga felé hajlik a keze

Ez még egész jó aránynak számít ahhoz képest, hogy mekkora maradt az őszinteségre való hajlam akkor, amikor a résztvevők még ennél is kevésbé érezték magukénak a felelősséget: abban az esetben, amikor a kockadobást is a mesterséges intelligenciára bízták, de utasíthatták arra, hogy növelje a várható profitot a pontosság kárára. Ebben a tesztben az önkéntesek 84 százaléka döntött úgy, hogy inkább a jutalomra törekszik, mint az őszinteségre, ezen belül az utasításokat kiadó emberek nagyjából fele a profit maximalizálására törekedett.

Az nem lepte meg a kutatókat, hogy a felelősség hárításával az emberek hajlamosabbak a csalásra, de az arányok már annál inkább, ezért azt javasolják, hogy a nagy nyelvi modellek fejlesztői igyekezzenek megelőzni az ehhez hasonló visszaéléseket. Azért is aggasztó ez a hajlandóság, mert a mesterséges intelligencia használata már egyre inkább a hétköznapok része a bíróságoktól az egyetemi beadandókig, és mint a kutatók példái is mutatják, ha az embernek nincsenek erkölcsi fenntartásai, az AI-nak sem lesznek (miért is lennének).

A kutatásból az is kiderült, hogy a mostani szabályozás elégtelen és könnyű megkerülni, de az is, hogy a kérdésnek nemcsak gyakorlati, hanem filozófiai dimenziója is van: az embereknek meg kell tanulniuk, hogy még abban az esetben is vállalják a saját felelősségüket, amikor úgy érzik, hogy mindent rákenhetnek a mesterséges intelligenciára.