Óriásit fejlődött az új ChatGPT: készítői szerint már gondolkodik, érvel és komplex feladatokat old meg
A ChatGPT-vel ma már elég jól elbeszélget az ember. Ha nincs ötlet, mi legyen az ebéd, ha össze kell rakni egy új edzéstervet, vagy ha épp nem jut eszünkbe egy olyan film címe (se egy épkézláb keresési kulcsszó hozzá), aminek csak zavarosan tudjuk elmagyarázni a cselekményét, ott a ChatGPT – és ezekre már a chatbot ingyenes változatával elérhető nyelvi modell is tökéletes megoldást nyújt. De persze olyanok is vannak, akik nem egy hétköznapi asszisztenst, jópofa chatbotot vagy interaktív Wikipédiát vártak a nagy körítéssel beharangozott AI-forradalomtól, hanem olyan gépi segédet, amely például programozásban és komolyabb tudományos kutatásokban is az emberek szintjén teljesít.
Nekik itt az év híre: az OpenAI csütörtökön bejelentette az o1 nevű modellcsaládot, amit kifejezetten összetettebb feladatok végiggondolására és bonyolult problémák megoldására hoztak létre. „Megtanítottuk őket arra, hogy több időt fordítsanak a problémák átgondolására, mielőtt válaszolnának, ahogy egy ember tenné. Gyakorlással megtanulják finomítani a gondolkodási folyamatukat, különböző stratégiákat próbálnak ki, és felismerik a hibáikat” – írja az OpenAI.
A modellcsalád ezúttal kéttagú: a fizetős ChatGPT-be máris beépített o1-preview a fejlett szövegértést és elemzést igénylő feladatokban teljesít kiválóan (az említett alapos gondolkodás után – tehát lassan), míg a tervek szerint idővel az ingyenes változatban is elérhetővé váló o1-mini ennek a hatékonyabb kistestvére, amelynél a kevésbé szofisztikált kifejezésmódot a matematikai, programozói és tudományos feladatok gyorsabb megoldása kárpótolja.
Lassú, sokat fogyaszt, nem beszél olyan szépen, de minden eddiginél okosabb
A ChatGPT eddig a korábbi csúcsmodellt, az alig négy hónapja bejelentett GPT-4o-t használta, amelynek legfőbb újdonsága a multimodalitás volt: akár feltöltött pdf-fájlokat vagy fotókat is kielemzett, ráadásul a hangvezérlés bevezetésével már szóban is élethű beszélgetéseket is lehetett folytatni vele. Ezek a funkciók az o1-ben már nincsenek meg, hiszen a kódolás nem szóbeli feladat, a bonyolult műveletek miatt megnőtt számítási igénybe pedig egyelőre nem fér bele az, hogy vizuális információkat is ilyen minőségben dolgozzon fel.
A szigorú limit sem véletlen: az o1-preview egyelőre heti 30, az o1-mini pedig heti 50 választ képes generálni egy felhasználónak. A több gondolkodás jobban igénybe veszi a processzorokat, ami nagyobb energiafogyasztással jár, épp ezért többe is kerül: egymillió bemeneti token 15 dollárba, egymillió kimeneti token 60 dollárba kerül, ami a GPT-4o költségének háromszorosa, illetve négyszerese (a token egy bizonyos méretű adathalmazt, nagyjából négy-öt karaktert takar – egymillió token körülbelül 750 ezer szónak felel meg).
A generatív mesterséges intelligencia számítási és energiaigénye most amúgy is forró téma: Sam Altman, az OpenAI vezére – a Google és az Anthropic képviselőivel együtt – épp csütörtökön járt a Fehér Házban, hogy megtárgyalják, hogyan valósítható meg, hogy az Egyesült Államok továbbra is az AI-forradalom élén járjon, és közben az energiatermelés, az adatközpontok fenntartása és a számításokat végző chipekhez szükséges félvezetőgyártás területén se történjen katasztrófa. A találkozó előtt elhangzottak a jól ismert adatok: egy ChatGPT-válasz generálása nagyjából 10-szer annyi áramot fogyaszt, mint egy Google-keresés; 2026-ra tízszeresére nő az AI-szektor energiafogyasztása 2023-hoz képest; míg az óriási adatközpontok áramigényét 160 százalékkal növeli meg a mesterséges intelligencia 2030-ig.
A cikk innentől csak a Qubit+ előfizetőinek elérhető. Csatlakozz, és olvass tovább!
Ha már van előfizetésed, lépj be vele. Ha még nincs, válassz csomagjaink közül!