természetes nyelvfeldolgozás

A Facebook saját kutatói szerint is veszélyes lehet a cég frissen kiadott, rasszista és nőgyűlölő mesterséges intelligenciája

A Facebook saját kutatói szerint is veszélyes lehet a cég frissen kiadott, rasszista és nőgyűlölő mesterséges intelligenciája

Bodnár Zsolt TECH 2022. május 18.

Az OPT-175B nagyméretű nyelvi modellt szándékosan toxikus nyelvezetre tanították, hogy aztán szabadon elérhetővé tegyék a kódot és a fejlesztés részleteit. A Facebook szerint a kutatókon a sor, hogy megszabadítsák a gépeket a gonosz gondolatoktól, de bírálói szerint a forráskód már így is veszélyes.