A Facebook mesterséges intelligenciája állítólag csak a gyűlöletbeszéd töredékét képes automatikusan cenzúrázni
A Facebook visszautasította azokat a vádakat, amelyek szerint az algoritmusuk csak a platformon megjelenő gyűlöletbeszéd alig kimutatható százalékát képes eltávolítani.
A közösségimédia-szolgáltató elsősorban automatizált rendszerekkel és más módszerekkel próbálja kiszűrni az ilyen jellegű bejegyzéseket és kommenteket. A Wall Street Journal cikke belsős használatra szánt, de kiszivárgott dokumentumokra hivatkozva azt állítja, hogy a technológia csak a kérdéses tartalmak igen csekély hányadát képes kiszűrni. A Facebook ragaszkodik ahhoz az állításhoz, hogy a gyűlöletbeszéddel szembeni harc sikeres.
A szigorúan belsős használatra szánt Facebook-dokumentumokban, amikre a Wall Street Journal hivatkozik, az áll, hogy a Facebook alkalmazottai azt állapították, hogy az automatikus szűrők a gyűlöletbeszédnek minősíthető, az oldal belső szabályzatát megsértő tartalmak alig 1 százalékát tudják eltávolítani.
2021 márciusában – írja a WSJ – egy belsős ellenőrzés felfedte, hogy az automatikus poszt-eltávolító mechanizmusok csak 3-5 százalékos hatékonysággal működnek. A jelentés szerint a Facebook is kevesebb munkaórát fordít arra, hogy emberekkel vizsgáltassa meg a kifogásoltnak minősített, a felhasználók által bejelentett szabálysértéseket. Ez a változtatás – áll a jelentésben – két éve lépett életbe; a Facebook innentől fogva egyre nagyobb mértékben hárította át a mesterségesintelligencia-alapú technológiákra a közösségi oldal moderálását.
A Facebook szándékos félreértelmezésre hivatkozik
A Facebook tagadja a vádakat. Guy Rosen, a Facebook integritásért felelős vezérigazgatója egy blogposztban azzal érvelt, hogy más módszerekkel érdemes vizsgálni a Facebook fejlődését ezen a területen.
Rosen szerint a felhasználók által megtekintett összes tartalom között egyre csökken a gyűlöletbeszéd részesedése: ezek a tartalmak 10 000 felhasználóból 5-höz jutnak el, és az elmúlt hónapban is 50 százalékkal csökkent az arányuk.
„A fő mérőszámunk a megelőzés; ezt a mérőszámot használjuk a belső méréseinkhez, és ezért osztjuk meg ugyanezeket a számokat a nyilvánossággal is.”
– írta Rosen, aki arra is kitért, hogy a Facebook algoritmusa proaktívan észlelte a moderált tartalmak 97 százalékát, még jóval azelőtt, hogy az a felhasználók elé kerülhetett volna.
A közelmúltban több sztori is napvilágot látott, amik a Facebook belső működési stratégiájára világítottak rá. A kiszivárgott értesülések szerint a Facebook nem tett meg mindent a közösségimédia-használat káros hatásainak mérsékléséért, sem a gyűlöletbeszéd visszaszorításáért. Nick Clegg, a Facebook globális ügyekért felelős vezérigazgatója, az Egyesült Királyság korábbi miniszterelnök-helyettese egy hétfői blogbejegyzésében azt írta, hogy
„ezek a történetek szándékos téves leírásokat adnak arról, amit valójában csinálunk, és kártékony, hamis indítékokat tulajdonítanak a Facebook vezetésének és vezérkarának.”
Cáfolatok helyett viszonvádak érkeztek
A Wall Street Journal szóvivője ugyanakkor azzal érvel, hogy a Facebook mostanáig egyetlen állításukat sem cáfolta.
„A Facebook a védekezése során egyetlenegyszer sem hivatkozott ténybeli tévedésekre. Ahelyett, hogy agresszív ellentámadásba lendülne, a vállalatnak közvetlenül a nyugtalanító problémákkal kellene foglalkoznia, és nyilvánossá kellene tennie minden belső kutatást, amelyre a jelentéseinket alapoztuk, és azt állítják róluk, hogy mi értelmeztük félre őket.”
– nyilatkozta a lap szóvivője a BBC-nek.
Kapcsolódó cikkek a Qubiten: