Már a mesterséges intelligencia is előítéletes, és ez az ember hibája

2019.08.16. · TECH

Az ember által létrehozott mesterséges intelligencia előítéletes, amit igazán nem várnánk egy teljesen racionális programtól. Csak pár példa: az arcfelismerő szoftverek nehezebben ismerik fel a fekete bőrű emberek arcát, mint a fehérekét. Ha két évvel ezelőtt kezekről kerestünk képet a Google keresőjén, nagyrészt fehér kezek jelentek meg. Az Amazon saját részre írt humánerőforrás-segítő programja diszkriminálta az álláshirdetésre jelentkező nőket a férfiakkal szemben. 

A fenti példák esetében a programozók a felfedezésük után korrigálták a hibákat, de vajon miért előítéletes a mesterséges intelligencia, hogyan lehet változtatni ezen, és miért nehéz elérni, hogy a számítógép mindenkit egyenlő bánásmódban részesítsen?

Honnan ered a gépi balítélet?


A mesterséges intelligencia, ahogyan ma használják, nagyrészt mélytanuló algoritmusokra épül. Ez azt jelenti, hogy az algoritmus egy létező nagy adathalmazban fedez fel hasonlóságokat és összefüggéseket, majd ezeket alkalmazza az újonnan bejövő adatok (például a fenti példában a kamera előtt megjelenő arc vagy a beküldött állásjelentkezés) megítélésére. 

Négy szinten meghatározható, hogy miért válik előítéletessé a mesterséges intelligencia. A legegyértelműbb probléma, ha az algoritmust előítéletes adatokon tanították. Ez a helyzet például, ha a gép azért nem ismeri fel a feketék arcát, mert csak fehér embereket mutattak neki korábban. Eggyel összetettebb probléma, ha a jelenlegi világot jól leképező adatokon tanítják az algoritmust, az mégis diszkriminatív lesz. Ha egy tudós képét akarjuk megtalálni, és ehhez tanításképp az elmúlt évszázadokból jelentős tudósokat mutatunk az algoritmusnak, akkor az kevésbé fogja valószínűnek ítélni egy nőről, hogy a tudományban ért el eredményeket, pusztán azért, mert a történelmi diszkrimináció következtében az általa ismert tudósok kis százaléka nő. 

Ha nemkívánatossá váltak a múltbeli nemi, bőrszínbeli, vagyoni helyzetre alapozott arányok a szakmákban, akkor a mesterséges intelligencia tanításánál manipulálni kell a történelmileg hiteles adatokat, hogy a hagyományosan alulreprezantált csoportok a részarányukhoz képest felülreprezentálódjanak. 

A harmadik szintű probléma, ha a programozó a cél meghatározásában előítéletesen jár el. Ha például azt kell meghatározni, hogy ki lesz megbízható adós vagy jó munkaerő, akkor a programozó a saját, akár látens előítéleteit akaratlanul is beépítheti az általa írt kódba – ezt a jelenséget nevezik algoritmikus előítéletnek. Végül pedig hasonló gépi előítéletet okozhat, ha a programozó az adatok betáplálása után kiválasztja azokat a változókat, amiket az algoritmus figyelembe vehet. Például az állásinterjúnál ilyen lehet a jelentkező neme, végzettsége, korábbi munkatapasztalatának hossza, de akár a családi állapota vagy a gyerekei száma is.

Nehéz kijavítani a hibákat, ha nem értik az algoritmust

Az álláshirdetéseknél ugyan kiiktathatják a nemet a figyelembe vett változók közül, de rengeteg másik változó maradhat, amelyek nőkre jellemzőbbek. Ezek az úgynevezett proxik, közéjük tartozik például a testmagasság vagy az ajánlólevélben használt szavak. Egy tavalyi kutatás kimutatta, hogy a nők ajánlásaiban többet használják a kedves, törődő szavakat, de kevesebbszer fordul elő, hogy ambiciózus vagy zseniális. Egy ilyen különbség elősegítheti, hogy a mesterséges intelligencia könnyen felismerje a jelentkező nemét, akkor is, ha ezt előzetesen nem adták meg neki. Problémát jelent még a földrajzi helyzet és a környezet is: más reprezentálja a helyi viszonyokat az Amerikai Egyesült Államokban, Magyarországon vagy Dél-Afrikában. 

Végső soron pedig abban sem egyezett még meg a társadalom, hogy milyen az az igazságosság, amit el akar érni. Úgy jutnak el az egyenlőséghez, ha részarányuknak megfelelően alkalmazzák a csoportokat (például 50 százalék nőt), vagy ha az alkalmazott nők és férfiak azonos módon teljesítenek, tehát azonos teljesítmény esetén veszik fel őket? Vagy a kettő közötti megoldás a helyes, amikor fokozatosan pozitívan diszkriminálják a múltban hátrányba került kisebbségeket, hogy elérjék az azonos lehetőségeket?

Sokszor az is probléma, hogy az MI használói nem értik, hogyan, mitől működnek a hasonló rendszerek. Amikor szimulált neuronok millióitól kérnek tanácsot, nem mindig képesek elmagyarázni, hogy a rendszer miért jut az adott következtetésre.

Ennek ellenére amikor felmerülnek a cikk elején írtakhoz hasonló problémák, a cégek igyekeznek azokat megoldani.

Az új Einsteint keresik Afrikában

Sokak szerint segít, ha bővül a mesterséges intelligenciával foglalkozók köre, azaz nem fehérek és nők is részt vesznek a mesterséges intelligencia programozásában, ők ugyanis korábban és könnyebben észrevehetik, ha a programjuk diszkriminatív. Éppen ezért egyesek – például a nigériai származású brit technológiai vállalkozó, Tom Ilube, akit munkássága elismeréseként lovagkereszttel is kitüntettek – Afrikába mentek, hogy új munkahelyeket hozzanak létre a számítástechnikában, főképp nőknek. Ez már csak azért is kiemelkedően pozitív hatással járhat, mert magas hozzáadott értékű munkahelyeket teremtenek a gazdasági nehézségekkel sújtott földrészen egy marginalizált csoport számára. 

Amikor a nők munkahelyekhez jutnak, az sokszor növeli a női egyenjogúságot, és csökkenti például a családon belüli erőszakot a fejlődő országokban, ezért számos hitelnyújtó és munkahelyteremtő programot kifejezetten nők számára tesznek elérhetővé, így megduplázva a hatást. Tom Ilube matematikát és természettudományokat tanító iskolát nyitott Afrikában lányoknak. Mivel a kontinensen 250 millió 15 év alatti lány él, Ilube úgy számol, hogy az intelligencia egyenletes eloszlása szerint körülbelül 10 ezer olyan afrikai fiatal lány van, akinek az intelligenciája Einsteinével megegyező vagy magasabb annál, és a brit vállalkozó őket akarja felkutatni.

Afrika tőkehiány miatt nem tudott a legutóbbi ipari forradalomban feltörni, de a negyedik, informatikai forradalom már tudásalapú pályára állítja a gazdaságokat, ebben pedig mindenki részt vehet. Moustapha Cisse és Charity Wayua külföldön végezték tanulmányaikat és dolgoztak informatikusként, majd hazatértek Afrikába, hogy otthon is népszerűsítsék a programozást. Cisse, a ghánai Google AI igazgatója mesterképzést indított Afrikai Mesterképzés a Mesterséges Intelligenciáról címmel, Wayua, az IBM egyik afrikai kutatóközpontjának vezetője pedig ösztöndíjat és szálláslehetőséget ad tehetséges alapszakosoknak, hogy elvégezzék a Georgia-i műszaki egyetem, a Georgia Tech online mesterképzését ugyanebben a témában. 

A mesterséges intelligencia jelenlegi hibáinak kijavítása azért létfontosságú, mert a technológia óriási potenciállal rendelkezik, például hatékonyan felismeri a bőr-, mell- vagy tüdőrákot, így szakorvos jelenléte nélkül lehet az eddigieknél pontosabban diagnosztizálni a betegséget. Ennek az előnyeit szintén főképp Afrika és azok a fejlődő országok fogják élvezni, ahol kevés az emberi erőforrás, de elérhető a mobilinternetes technológia.

A szerző az Oxfordi Egyetem mesterszakos közgazdaságtan-hallgatója. Összes írása a Qubiten itt olvasható.   

Kapcsolódó cikkek a Qubiten:

link Forrás
link Forrás
link Forrás