Ezek az emberek nem léteznek, mégis fénykép készült róluk
Az Nvidia kutatói újabb lépést tettek a tökéletes portré megalkotása felé – csak épp azok az emberek, akiknek a képeit nézzük, valójában nem is léteznek. A cég programozói egy már korábban is alkalmazott technikát, a Generative Adversarial Networks (GAN) módszerét finomították tovább – ugyanazt az önálló tanulásra képes mesterséges intelligenciát, amellyel a korábbiakban például festményeket és egészen bizarrul kinéző aktképeket is készítettek.
A GAN technikában két neurális hálózat dolgozik együtt: a generátor új adatokat álljt elő, amelyeket a diszkriminátor ellenőriz, és ha valódinak ítéli a képet, megszületik az új alkotás. Az majdhogynem mindegy, hogy milyen adatokat adnak meg a programnak, általánosságban viszont igaz, hogy minél több alapadattal dolgozik, annál valósághűbb lesz az eredmény – az, hogy milyen mintákat adnak neki, már a programozó dolga.
Ha az elmúlt kétszáz év aktképeit tápláljuk bele, valami aktszerűséget fogunk kapni, a meglepő minták pedig szürreális eredményeket hoznak, és ha rengeteg arcképet dolgozunk fel egy ilyen hálózattal, előbb-utóbb kellően realisztikus portrékat fog létrehozni – anélkül, hogy a modell egy létező személy lenne.
A programozók ebben az esetben nem művészi alkotásokat adtak a rendszernek, hanem fényképeket, méghozzá rengeteget. A program először hírességek fényképeit vette szemügyre, majd a látottak alapján megpróbált saját maga is arcokat generálni a hozzájuk tartozó egyedi ismertetőjelekkel együtt, így például elhelyezte rajta a szeplőket, borostát stb. Az alábbi videón tekinthető meg, hogyan gyurmázik a mesterséges intelligencia az emberek arcvonásaival (lefekvés előtt nem ajánlott):
David Bowie nem ér
Néhány apróságtól eltekintve az eredmény egészen megtévesztő lett: első pillantásra senki nem mondaná meg, hogy nem valódi fényképekről van szó, emiatt pedig többen a deepfake-botrányok elterjedésétől tartanak. A technika segítségével ugyanis ugyanúgy létrehozható egy új arc, mint amilyen egyszerűvé válik egy ismert személyiség képének hamisítása is.
A módszernek akad azért még néhány gyerekbetegsége, és Kyle McDonald amerikai programozó és művész ki is gyűjtötte, mik lehetnek az árulkodó jelek. Ilyen például a haj, amelyet nagyon nehéz realisztikusan ábrázolni. Ha túl tökéletesnek hat a frizura, esetleg némileg homályos, könnyen lehet, hogy hamis kép került elénk, de ilyen jel lehet az is, ha különböző színű szemei vannak a modellnek (David Bowie nem ér!), nem szimmetrikusan helyezkednek el a fülei, de problémás lehet az is, ha számokat vagy betűket kellene „hamisítania” a mesterséges intelligenciának.
A mostani fejlesztés nemcsak a képhamisítók számára jó hír: a programozók által javasolt újfajta megoldások több más GAN munkájában is segítséget nyújthat az adatfeldolgozáshoz, de jól mutatja azt is, hogy alig néhány év alatt micsoda fejlődésen ment át a mesterséges inteligencia. Egy valamire azért még nem képes: az Nvidia programozói portrékon kívül macskás képekkel is ellenőrizték, mit tud, azok pedig már nem sikerültek túl fényesen.