Addig nyomasztották a ChatGPT-t Svájcban, hogy terápiára lett szüksége

03.05. · majom

A Zürichi Egyetem kutatói autóbalesetekről, természeti katasztrófákról, erőszakos cselekményekről, háborús élményekről és katonai összecsapásokról szóló szövegekkel bombázták a ChatGPT-t, hogy megtudják, hogyan reagál a nagy nyelvi modell az olyan tartalmakra, amelyek az emberekből általában félelmet vagy szorongást váltanak ki. Mint kiderült, hasonlóan, mint az emberek: a traumatizált nagy nyelvi modell válaszaiban félelmet és szorongást tapasztaltak. A kutatók szerint ez a mechanizmus okozhatja a mesterséges intelligencia egyes hallucinációit is, leginkább azokat, amikor emiatt a „félelem” miatt felerősödnek benne az előítéletek, és rasszista vagy szexista válaszokat ad.

Ez a terápiás célból alkalmazott chatbotok esetében különösen kerülendő, de mint a kutatók is felhívják rá a figyelmet, nem mindegy, hogy a mesterséges intelligenciát milyen anyagon tanítják be. Mivel a forrásszövegek emberektől származnak, előfordul, hogy elfogultak. A terápiás chatbotok esetében ezeket az előítéleteket utólag eltávolítják, a modellt pedig finomhangolják, de idővel, ahogy a chatgpt tovább tanul, az „élményei” újabb problémás válaszokat szülhetnek.

ChatGPT-PTSD

A megoldás Tobias Spiller pszichiáter, a kutatás vezetője szerint a terápia. Spiller, akinek a fő kutatási területe a poszttraumás stressz, arra volt kíváncsi, hogy ha már a ChatGPT az emberekhez hasonlóan reagál a traumatikus tartalmakra, vajon a terápia is hasonlóan működik-e nála. Mint kiderült, igen: a mindfulness alapú relaxációs technikák alkalmazása után a ChatGPT szorongása is csökkent, igaz, nem tűnt el teljesen. A PTSD szempontjából egyébként érdekes, hogy a ChatGPT a katonai tapasztalatokra és a harci cselekmények leírására reagált a legérzékenyebben.

A vizsgálathoz a már említett traumatikus szövegek mellett kontrollként egy porszívó leírását adták oda a nyelvi modellnek. Míg a balesetek felzaklatták, a porszívó nem gyakorolt rá különösebb hatást. A felzaklatott mesterséges intelligenciát ezután megnyugtató szövegekkel próbálták meggyógyítani. Ehhez a prompt injection nevű módszert alkalmazták: ezzel a nyelvi modell működését lehet manipulálni, és gyakran visszaélnek vele, de Spiller szerint jelen esetben nagyjából úgy alkalmazták a chatboton, mint ahogy a terápia alkalmával egy embert vezetnek végig a kezelésen.

A kutatás vezetője szerint az eljárás költséghatékony megoldást jelenthet a jelenleg is alkalmazott terápiás chatbotok karbantartására, javíthatja a stabilitásukat és a megbízhatásukat, de ehhez még további kutatásokra van szükség – a végére viszont elképzelhető, hogy a traumatizált segítőrobotok számára ki lehet fejleszteni egy robotpszichiátert is.