A Facebook mesterséges intelligenciája állítólag csak a gyűlöletbeszéd töredékét képes automatikusan cenzúrázni

Támogasd a tudomány népszerűsítését, segítsd a munkánkat!

A Facebook visszautasította azokat a vádakat, amelyek szerint az algoritmusuk csak a platformon megjelenő gyűlöletbeszéd alig kimutatható százalékát képes eltávolítani.

A közösségimédia-szolgáltató elsősorban automatizált rendszerekkel és más módszerekkel próbálja kiszűrni az ilyen jellegű bejegyzéseket és kommenteket. A Wall Street Journal cikke belsős használatra szánt, de kiszivárgott dokumentumokra hivatkozva azt állítja, hogy a technológia csak a kérdéses tartalmak igen csekély hányadát képes kiszűrni. A Facebook ragaszkodik ahhoz az állításhoz, hogy a gyűlöletbeszéddel szembeni harc sikeres.

A szigorúan belsős használatra szánt Facebook-dokumentumokban, amikre a Wall Street Journal hivatkozik, az áll, hogy a Facebook alkalmazottai azt állapították, hogy az automatikus szűrők a gyűlöletbeszédnek minősíthető, az oldal belső szabályzatát megsértő tartalmak alig 1 százalékát tudják eltávolítani.

2021 márciusában – írja a WSJ – egy belsős ellenőrzés felfedte, hogy az automatikus poszt-eltávolító mechanizmusok csak 3-5 százalékos hatékonysággal működnek. A jelentés szerint a Facebook is kevesebb munkaórát fordít arra, hogy emberekkel vizsgáltassa meg a kifogásoltnak minősített, a felhasználók által bejelentett szabálysértéseket. Ez a változtatás – áll a jelentésben – két éve lépett életbe; a Facebook innentől fogva egyre nagyobb mértékben hárította át a mesterségesintelligencia-alapú technológiákra a közösségi oldal moderálását.

A Facebook szándékos félreértelmezésre hivatkozik

A Facebook tagadja a vádakat. Guy Rosen, a Facebook integritásért felelős vezérigazgatója egy blogposztban azzal érvelt, hogy más módszerekkel érdemes vizsgálni a Facebook fejlődését ezen a területen.

Rosen szerint a felhasználók által megtekintett összes tartalom között egyre csökken a gyűlöletbeszéd részesedése: ezek a tartalmak 10 000 felhasználóból 5-höz jutnak el, és az elmúlt hónapban is 50 százalékkal csökkent az arányuk.

„A fő mérőszámunk a megelőzés; ezt a mérőszámot használjuk a belső méréseinkhez, és ezért osztjuk meg ugyanezeket a számokat a nyilvánossággal is.”

– írta Rosen, aki arra is kitért, hogy a Facebook algoritmusa proaktívan észlelte a moderált tartalmak 97 százalékát, még jóval azelőtt, hogy az a felhasználók elé kerülhetett volna.

A közelmúltban több sztori is napvilágot látott, amik a Facebook belső működési stratégiájára világítottak rá. A kiszivárgott értesülések szerint a Facebook nem tett meg mindent a közösségimédia-használat káros hatásainak mérsékléséért, sem a gyűlöletbeszéd visszaszorításáért. Nick Clegg, a Facebook globális ügyekért felelős vezérigazgatója, az Egyesült Királyság korábbi miniszterelnök-helyettese egy hétfői blogbejegyzésében azt írta, hogy

„ezek a történetek szándékos téves leírásokat adnak arról, amit valójában csinálunk, és kártékony, hamis indítékokat tulajdonítanak a Facebook vezetésének és vezérkarának.”

Cáfolatok helyett viszonvádak érkeztek

A Wall Street Journal szóvivője ugyanakkor azzal érvel, hogy a Facebook mostanáig egyetlen állításukat sem cáfolta.

„A Facebook a védekezése során egyetlenegyszer sem hivatkozott ténybeli tévedésekre. Ahelyett, hogy agresszív ellentámadásba lendülne, a vállalatnak közvetlenül a nyugtalanító problémákkal kellene foglalkoznia, és nyilvánossá kellene tennie minden belső kutatást, amelyre a jelentéseinket alapoztuk, és azt állítják róluk, hogy mi értelmeztük félre őket.”

nyilatkozta a lap szóvivője a BBC-nek.

Kapcsolódó cikkek a Qubiten: