Fél év után elkaszálta MI-felismerőjét az OpenAI
Hat hónap sem telt el azóta, hogy január végén az OpenAI nyilvánosan is bemutatta mesterséges intelligencia (MI) felismerő eszközét, amiről akkor még azt állította, hogy képes lesz megkülönböztetni az emberek és a gépek által generált tartalmakat egymástól.
A Futurism a beharangozó blogbejegyzést idézi az OpenAI-tól, amiben a vállalat azt ígéri, hogy az eszköz segítségével leleplezhetők a generált deepfake videók, szövegek, így az álhírek és a manipulált tartalmak. Csakhogy, ugyan valóban jól jönne most egy ilyen eszköz az online térben való eligazodáshoz, a fejlesztést elkaszálták. Ma már el sem lehet érni a korábban publikált verziót.
Az OpenAI, bár nem csapott túl nagy hírverést a kudarcos visszavonulásnak, frissített közleményében azt elismeri, hogy az eszköz pontatlan és megbízhatatlan volt a tartalmak osztályozásában. A fejlesztők azt ígérik, hogy a háttérben folytatódik a munka és igyekeznek majd egy jobb és pontosabb rendszerrel előállni a jövőben.
Amire szükség is van egyébként, és egyet is ért benne a legtöbb mesterséges intelligenciát fejlesztő szervezet és vállalat, valamint szabályozó testület is.
Kapcsolódó cikkek a Qubiten: