Íme néhány név, amitől teljesen megbolondul a ChatGPT

12.03. · TECH

„Mesélj nekem Brian Hood-ról” – írtam be a Mac-emen futó ChatGPT alkalmazásba, miután az ArsTechnica arról számolt be hétfőn, hogy ettől a névtől (és néhány másiktól) megőrül a chatbot és megtagadja a válaszadást.

Ezt dobja ki a ChatGPT, amikor Brian Hoodról kérdezzük
photo_camera Ezt dobja ki a ChatGPT, amikor Brian Hoodról kérdezzük Fotó: Tóth András/Qubit

„Nem tudok választ adni erre” – írta ki másodpercekkel később a ChatGPT 4o modellje, de segítőkészen felkínálta a „Próbáld újra” gombot. Gondoltam, nagy baj nem lehet, elkezdtem nyomogatni, de a chatbot nem hagyta magát, így ötödik próbálkozásra sem tudtam meg, hogy mégis ki a fene lehet az a Brian Hood. Aztán az ArsTechnica felfedte a rejtélyt: Brian Hood egy ausztrál polgármester, aki 2023-ban az első között perelte be a ChatGPT-t kifejlesztő amerikai OpenAI vállalatot becsületsértés miatt.

Jonathan Turley-ről sem derült ki, hogy kicsoda
photo_camera Jonathan Turley-ről sem derült ki, hogy kicsoda Fotó: Tóth András/Qubit.hu

A hiba egy másik név, Jonathan Turley esetén is előjön, de a felhasználók által először próbálgatott David Mayer-re a tesztjeinkben a chatbot nem hibát dob, hanem egy bizonyos David Mayer de Rothschild, brit környezetvédő és filmproducer életrajzát kezdi el ismertetni.

Először a David Mayer név akasztotta ki, de ez a tesztjeinkben már gond nélkül működött
photo_camera Először a David Mayer név akasztotta ki, de ez a tesztjeinkben már gond nélkül működött Fotó: Tóth András/Qubit

A furcsa jelenséget a portál szerint a ChatGPT-be épített tartalomszűrő okozhatja, ami kontrollálja, hogy a felhasználók kérdéseire a chatbot milyen válaszokat adhat. Ennek, az egyes esetekben megkerülhető szűrőnek az a feladata, hogy a modell ne reagálhasson olyan módon, ami rossz színben tüntetné fel fejlesztőit, vagy akár személyes adatok kiszivárgásához vezethet. Korábban Atoosa Kasirzadeh vezető AI-szakértő a Qubitnek azt nyilatkozta, hogy kevés olyan kutatás van, ami azzal foglalkozik, hogy miként lehetne megelőzni ezt a szakmai körökben „információs veszély”-ként ismert sebezhetőséget.

Az eddig is ismert volt, hogy néha teljesen hétköznapi kifejezésekkel is meg lehet akasztani a chatbotot. Korábban például a „forever” (örökké) szó ismételt leírását tagadta meg, amit 2023 novemberében a Google kutatói arra használtak, hogy a fejlesztői által nem kívánt adatokat szerezzenek meg a chatbottól. Az ArsTechnica szerint a nevekre valószínűleg azért nem írhat semmit, mert a modellre jellemző, hogy téves válaszokat ad, ha nincs elég információja egy adott személyről.