A Facebook saját kutatói szerint is veszélyes lehet a cég frissen kiadott, rasszista és nőgyűlölő mesterséges intelligenciája
2022.05.18.
Az OPT-175B nagyméretű nyelvi modellt szándékosan toxikus nyelvezetre tanították, hogy aztán szabadon elérhetővé tegyék a kódot és a fejlesztés részleteit. A Facebook szerint a kutatókon a sor, hogy megszabadítsák a gépeket a gonosz gondolatoktól, de bírálói szerint a forráskód már így is veszélyes.