Arra tanítja modelljeit az OpenAI, hogy bevallják, ha hibáznak vagy hazudnak
A kutatók jutalmazó módszerrel tanították a GPT-5-öt, hogy megértsék, milyen gondolatmenetek alapján „hazudik”. Az AI egészen elképesztő technikákhoz folyamodott.
A kutatók jutalmazó módszerrel tanították a GPT-5-öt, hogy megértsék, milyen gondolatmenetek alapján „hazudik”. Az AI egészen elképesztő technikákhoz folyamodott.
Az elődjénél nagyságrendekkel több számítási kapacitást biztosító szerver digitális bölcsészeti, történeti és kulturális örökséghez kapcsolódó projekteket, valamint AI-kutatásokat fog támogatni.
Az Anthropic a könyveket és cikkeket a LibGen-ről és hasonló oldalakról töltötte le, de most a maga nemében egyedülálló megállapodást kötött a szerzőkkel.
Az alkalmazott nyelvész a 12. Qubit Live-on elmondta: a chatbotok által használt modellek a nyelv lenyomatai számokban és valószínűségekben. Egy saját modellhez rengeteg pénzre és emberre van szükség, de a ChatPuli már üzemel – Ligeti-Nagy előadása már videó és podcast formájában is elérhető.
Az OpenAI a szülők értesítésével tervezi csökkenteni az öngyilkossági kísérletek lehetőségét a tinédzserek körében, azonban az új biztonsági funkció használata adatvédelmi dilemmákat is felvet.
Az R1 nevű érvelő modell több feladatban felülmúlta a hagyományos, emberi iránymutatással képzett modelleket, és 86,7 százalékos eredményt ért el az egyik legnehezebb középiskolai matekversenyen.
Az ember által megadott cél eléréséért dolgozó AI-ágensek fontos lépést jelentenek a mesterséges általános intelligencia (AGI) felé, de rengeteg a kockázat – mondja Gyevnár Bálint, az Edinburgh-i Egyetem kutatója.
Adakozóbb a mesterséges intelligencia, ha ember helyett egy másik mesterséges intelligencián kell segítenie. Viselkedéskutatási kísérletnek vetettek alá nagy nyelvi modelleket.
Már legalább 300 esetben derült ki, hogy ügyvédek és bírók mesterségesen generáltak szövegeket beadványokban és ítéletekben, nem létező ügyekre és idézetekre hivatkozva – legutóbb egy emberölési ügy tárgyalásán.
Csakhogy az is kérdés, létezik-e egyáltalán olyasmi, hogy anyai ösztön.
Sam Altman szerint a GPT–3 olyan volt, mint egy középiskolás, a GPT–4 mint egy egyetemista, a ChatGPT-t hajtó legújabb AI-modell viszont már minden témában PhD-szintű szakértelmet nyújt. Egyes szakértők viszont úgy vélik, kipukkadt a GPT-lufi.
„Rettentően sok minden mehet félre, ha nem kezeljük felelősséggel az AI-modelleket” – mondja az AI-biztonság kutatásával foglalkozó Gyevnár Bálint. Elon Musk cége, az xAI a Grok 4-gyel felzárkózott a nagy riválisaihoz, de még mindig túl segítőkész például vegyi vagy biológiai fegyverekre vonatkozó kérdésekben.
Az író kétségbeesett levelet kapott egy diákjától, mert az egyik novellájának kidolgozott tétele tele volt valótlansággal – mint kiderült, ChatGPT-vel készült. Dragomán egyszerre hiányolja az AI-oktatást és a hagyományos műelemzés igényét.
Van olyan kutató, aki az összefoglalók megírására használja a nagy nyelvi modelleket, és van, aki ötleteket kér a géptől. De mi történik akkor, ha a mesterséges intelligencia írja az egész tanulmányt?
„Azt gondolom, hogy ez AGI, komolyan” – írta az o3-ról Tyler Cowen amerikai közgazdász. Lehet, hogy korai az öröm, de az biztos, hogy a ChatGPT-be szerdán integrált o3 és o4-mini modellek tovább élezik az OpenAI és a Google közötti versenyt.