A Google új, AI alapú keresőmotorja ragasztót ajánl a pizzára, és jó ötletnek tartja a kőevést

05.28. · TECH

A Google több száz millió felhasználó számára elérhetővé tette legújabb kísérleti keresési funkcióját a Chrome, a Firefox és a Google alkalmazás böngészőjében. Az „AI Overviews” megspórolja nekünk a linkekre való kattintgatást, mivel a generatív mesterséges intelligencia, ugyanaz a technológia, amely a rivális terméket, a ChatGPT-t is működteti, összefoglalókat készít számunkra a keresési eredményekről – ismerteti a ScienceAlert.

Ha megkérdezzük, „hogyan lehet a banánt tovább frissen tartani?”, a program a mesterséges intelligencia segítségével hasznos összefoglalót készít a tippekről, azaz esetünkben arról, hogy a banánt hűvös, sötét helyen és más gyümölcsöktől, például az almától távol kell tárolni.

Ha azonban ennél szokatlanabb, vagy akár beugratós kérdést teszünk fel neki, az eredmény katasztrofális, sőt veszélyes is lehet. A Google most azon fáradozik, hogy a problémákat egyenként kijavítsa, de a keresőmogul egyelőre egy PR-pofonba szaladt bele. Ugyanis arra a kérdésre például, hogy mit tegyünk, ha a sajt nem marad rajta a pizzánkon, a motor azt javasolta, hogy használjunk ragasztót. Arra a kérdésre pedig, hogy hány kavicsot együnk naponta, az a válasz jött, hogy legalább egyet érdemes minden nap elfogyasztani, mert tele van hasznos ásványi anyagokkal.

Az egyik alapvető probléma, hogy a generatív AI-eszközök azt nem tudják megállapítani, mi az igazság, csak azt, hogy mi népszerű, mi a sokak által kedvelt. A kőevésről éppenséggel nem sok cikk található a világhálón, mert annyira egyértelműen rossz ötlet, van azonban egy meglehetősen olvasott, szatirikus cikk a témáról az Onionon 2021-ből, és a Google mesterséges intelligenciája a népszerűséget vette alapul.

A másik probléma, hogy a generatív mesterséges intelligencia eszközök nem a mi értékeink talaján állnak, hanem a weben található információk alapján dolgoznak. És bár léteznek technikák az efféle tévedések kiküszöbölésére (ilyen például az RLHF, a „reinforcement learning from human feedback" azaz, megerősítő tanulás az emberi visszajelzések alapján), nem meglepő, hogy a válaszokban visszaköszön az interneten keringő álinformációk, elfogultságok, összeesküvés-elméletek egy része is.

Sundar Pichai beszél a Google fejlesztői konferenciáján 2023 május 10-én Mountain View-ban
photo_camera Sundar Pichai beszél a Google fejlesztői konferenciáján 2023 május 10-én Mountain View-ban Fotó: JOSH EDELSON/AFP

Most akkor így kell elképzelnünk a jövő keresőmotorjait? – teszi fel a kérdést cikkében ScienceAlert. A Google nyilván szeretne felzárkózni az OpenAI és a Microsoft mellé az AI terén, ezért meglehet, kevésbé volt óvatos, amikor a technológiát a felhasználók kezébe adta, holott Sundar Pichai vezérigazgató tavaly azt ígérte, nem fognak előre rohanni, és erős, felelős struktúrákat építenek az AI köré. Egyelőre nem ez látszik, és ennek pénzügyi motivációi elég egyértelműek. Így azonban a cég azt kockáztatja, hogy elveszíti azt a létező bizalmat, amely szerint a Google a kérdésekre adott jobbára helyes válaszok megtalálásának helye. Ezen kívül a saját eddigi üzleti modelljét is gyengítheti, hiszen ha összefoglalókat olvasunk és nem klikkelgetünk a linkekre, akkor a Google sem keres pénzt.

A lap a társadalmi kockázatokat is mérlegeli: az igazság, mint olyan, amúgy is vitatott és könnyen kibillenthető fogalom, és ezen jelenleg az AI sem segít. A web ma tele van emberek által létrehozott, gondos, minőségi tartalommal, és fennáll a veszélye annak, hogy ezt az AI felhígítja.

Jelenleg naponta 400 millió dollárt fektetnek AI-fejlesztésekbe a világon, és csak most kezdünk ráébredni arra, hogy korlátokra és szabályozókra is szükségünk lesz egy ilyen rohamos tempóban fejlődő, növekvő területen. Az természetes, hogy gyógyszercégek vagy autógyártók nem dobhatnak piacra termékeket csak úgy, de a techcégekre ez egyelőre nem vonatkozik – vonja le a tanulságot a ScienceAlert.