Bocsánatot kért a Facebook a fekete férfiakat főemlősnek címkéző hibás ajánlórendszere miatt

Nincsen jövőnk tudomány nélkül, nincsen Qubit nélkületek. Támogasd a munkánkat!

A Facebook bocsánatot kért az egyik mesterséges intelligenciájuk okozta incidens miatt. Az algoritmus tévesen kategorizált egy fekete férfiakról készült videófelvételt, és a főemlősök (primates) címkét társította a videóhoz. A New York Times beszámolója szerint a felhasználók, akik megnézték a Daily Mail honlapján a június 27-én publikált videót, egy felugró üzenetet kaptak, ami azt firtatta, hogy tovább akarják-e nézni a főemlősökről szóló videót.

A Facebook elfogadhatatlannak nevezte a malőrt, és azt ígérték: vizsgálatot indítanak, hogy ilyesmi ne fordulhasson elő a jövőben. A vállalat egyik szóvivője a Verge-nek szombaton azt mondta, hogy a szolgáltatásban leállították a témaajánló (topic recommendation) funkciót, és nem kapcsolják vissza, amíg ki nem derítik a hiba okát.

„Nyilvánvalóan elfogadhatatlan hiba volt. Ahogy korábban említettük: bár a mesterséges intelligenciáinkkal komoly előrelépéseket értünk el, tudjuk, hogy nem tökéletesek, és még sok a tennivalónk velük. Szeretnénk bocsánatot kérni mindenkitől, aki látta ezeket a sértő ajánlásokat.”

Nem ez volt az első eset, hogy egy mesterséges intelligencia a faji vagy nemi előítélete jeleit mutatja: az újabb telefonok arcfelismerő szoftverei sokáig kisebb eséllyel azonosították a sötétebb bőrszínű felhasználókat, mint a fehéreket. 2015-ben hasonló címkézési balesetbe (és sűrű elnézéskérésekbe) szaladt bele a Google is: az ő algoritmusuk a „gorilla” címkét társította a feketékhez.

Hogy a faji és nemi előítéleteket a mesterséges intelligencia betanításához használt adatkészlet okozza-e, azt nem tudjuk biztosan. A Facebook mindenesetre tavaly bejelentette, hogy tanulmányozzák, kimutathatók-e faji elfogultság jelei a Facebook és az Instagram betanítási adataiban.

Áprilisban az Egyesült Államok Szövetségi Kereskedelmi Bizottsága (Federal Trade Commission, FTC) közleményben figyelmeztetett rá, hogy a mesterséges intelligenciák aggasztó faji és nemi előítéletei fogyasztóvédelmi szempontból is törvénysértők lehetnek, ha ezek hitelezési, lakhatási vagy foglalkoztatási hátrányt okoznak az érintetteknek. „Készüljetek az elszámoltathatóságra, különben az FTC fog elszámoltatni benneteket” – figyelmeztetett Elisa Jillson adatvédelmi biztos az ügynökség honlapján.

Kapcsolódó cikkek a Qubiten: