Az arcfelismerő algoritmusokat megtévesztő pulcsikat dobott piacra egy olasz cég

2023.01.26. · TECH

Az olasz Cap_able nevű startup piacra dobta az első olyan kötött pulcsikból, nadrágokból, pólókból és női ruhákból álló kollekciót, amelyik képes megtéveszteni a mesterséges intelligenciát. A mintákat és a színeket úgy válogatták össze, hogy viselőjük el tudjon bújni az arcfelismerő rendszerek elől.

A ruhadarabok úgynevezett adverzális mintákat használnak, amelyet más mesterséges intelligenciát használó algoritmusok fejlesztettek ki, hogy összezavarják az arcfelismerő rendszereket és megvédjék viselője magánszféráját. A kamera vagy nem ismeri fel, hogy egy emberrel van dolga, vagy a mintákba rejtett állatnak nézi a pulcsit: például zsiráfnak, zebrának vagy kutyának.

A ruhadarabokat a cég a leggyakrabban használt és a leggyorsabb valós idejű felismerő rendszeren, a YOLO algoritmikus szoftveren tesztelte le. Az árak 246 dollárnál, vagyis 87 ezer forintnál kezdődnek, vagyis az biztos, hogy nem az olcsó fast fashion termékek vásárlóira lőnek.

link Forrás

A Cap_able szerint ezek a pulcsik, nadrágok és pólók nem csupán pajzsként védenek az AI-kameráktól, hanem azt a társadalmi vitát is előtérbe igyekeznek hozni, miszerint az embernek joga van saját magánszférája és biometrikus adatai védelméhez az algoritmikus felismerő rendszerekkel szemben, főleg annak tudatában, hogy ezek a mesterséges intelligenciát használó programok nagyon könnyen használhatók

Korábban már írtunk arról, hogy faék egyszerűségű trükkökkel átverhető a mesterséges intelligencia. A Carnegie Mellon University kutatói 2016-ban megmutatták, hogy különleges mintázatú szemüvegkeretekkel átverhetők bizonyos arcfelismerő szoftverek. Segítségével nem csupán képesek voltak eltűnni az algoritmus elől, de kiadhatták magukat valaki másnak, például hollywoodi celebeknek is. Egy másik alkalommal pólót vetett be a Leuveni Katolikus Egyetem fejlesztőinek egy csoportja: 2019-ben nyilvánosságra hozott tanulmányukban arról írnak, hogyan sikerült a biztonsági kamerák előtt gyakorlatilag láthatatlanná tenniük magukat néhány ügyesen tervezett póló segítségével.

Az MIT kutatói 2017 novemberében pedig arra világítottak rá, hogy ha 3D-nyomtatóval létrehoznak egy megfelelő mintázatú tárgyat, akkor azt is elérhetik, hogy a tárgyfelismerő algoritmus fegyverként osztályozzon egy játék teknőst, vagy baseball-labdaként egy csésze eszpresszót – függetlenül attól, hogy milyen szögből vizsgálja meg az adott tárgyat a szoftver.

Ezek mind-mind a gépi tanulással fejlődő algoritmusok becsapására létrehozott adverzális, azaz ellenséges példák (adversarial examples) közé tartozó esetek, amelyekkel kifejezetten azért kezdtek el kísérletezni a biztonsági résekre vadászók, hogy például ne terroristáknak jusson eszükbe görögdinnyeként klasszifikáltatni a bombáikat a reptéren, hanem még az előtt létezzen hatékony megoldás az ilyen hibák kiszűrésére, hogy a biztonsági résekről szóló tudás széles körben elérhetővé válna. Reméljük, a Cap_able is gondolt rá, hogyan szűrje ki vásárlói közül a potenciálisan veszélyes elemeket.

Kapcsolódó cikkek a Qubiten:

link Forrás