Hiába égető kérdés az AI szabályozása, az EU a gyors helyett a hosszú távú megoldásban bízik

2023.06.15. · TECH

„Ki az, aki szeretne vízjeleket látni egy mesterséges intelligenciával generált videón, amin politikusok beszélnek? És ki az, aki akkor is látni szeretne ilyet, amikor egy filmjelenetet készítenek el számítógépes technikákkal?” – ezeket a kérdéseket Eva Maydell tette fel a június elején, Brüsszelben megrendezett Grow Digital konferencián, amit az Európai Innovációs Hivatal (EIT) hív életre minden évben, hogy fórumot biztosítson a legújabb technológiák bemutatására és az aggályok megvitatására.

Míg a kiberbiztonságról vagy az ipar 5.0-ról szóló beszélgetések viszonylagos egyetértésben zajlottak a rendezvényen, addig a mesterséges intelligencia (AI vagy MI) felhasználásának európai szabályozásának kérdése okozott némi súrlódást a döntéshozók és az ipari szereplők között. És nem azért, mert a cégek puha szabályozást szeretnének, sokkal inkább azért, mert a vállalatok már most attól tartanak, hogy az Európai Unió elkésett a regulációval. Az AI Act (az EU mesterséges intelligencia szabályozási keretrendszere) ugyanis évek óta az asztalon van, de végső formába öntése még mindig várat magára.

Ennek okairól, a döntés körülményeiről, a várakozásokról és a szempontokról a beszélgetés egyik résztvevőjével, az Európai Bizottság Artificial Intelligence Act munkacsoportjának olasz vezetőjével, Gabriele Mazzinivel beszélgettünk a Grow Digitalon tartott panelbeszélgetés után.

Gabriele Mazzini
photo_camera Eva Maydell bolgár EP-képviselő és Gabriele Mazzini, az Európai Bizottság Artificial Intelligence Act munkacsoportjának vezetője a 2023-as Grow Digital konferencián Brüsszelben Fotó: ARTHURS-H/ARTHURS-H

Időközben annyi előrelépés történt, hogy az Európai Parlament szerdán elfogadta az Európai Bizottság 2021 áprilisában előterjesztett javaslatát, amely különböző kockázati csoportokba osztja be a mesterséges intelligencia felhasználási területeit, és ahhoz mérten rendelkezik az egyes technológiák tiltásáról (például társadalmi kreditrendszer vagy prediktív rendészeti alkalmazások esetén), büntetéséről (gyerekekre vagy más kiszolgáltatott csoportokra célzott AI-rendszereknél) vagy engedélyezéséről. A döntés értelmében megkezdődhet az egyeztetés az Európa Tanáccsal, és így még az év vége előtt életbe léphet a világ első átfogó mesterségesintelligencia-szabályozása.

A mesterséges intelligenciáról szóló törvény formálódik

Mazzini szerint az a tény, hogy a technológia nagyon gyorsan változik, kihívássá teszi a területre vonatkozó jogszabályok megalkotását. „Fontos, hogy a mesterséges intelligencia szabályozása tekintetében koherens megközelítést tartsunk fenn, tekintettel arra, hogy a technológia hasonló jellemzőkkel rendelkezik, függetlenül attól, hogy hol alkalmazzák, még akkor is, ha esetleg figyelembe kell venni az ágazati sajátosságokat, például az iparban, az oktatásban, az egészségügyben vagy a közigazgatásban” – mondta.

A jogszabályok véglegesítéséhez vezető folyamat hosszadalmas lehet, mivel uniós szinten bizonyos speciális eljárásokat kell követni, de Mazzini szerint ezen az úton mindenképpen érdemes végigmenni. „Fontos a jövőbiztos alapszabályok lefektetése, így nem kell majd minden évben újraírni a szabályokat”, ami szerinte egyébként sem lenne járható út.

A cél mindenekelőtt egy átfogó, biztonságos rendszer létrehozása a mesterséges intelligencia felhasználására. Ez magában foglalja az olyan, nagy nyelvi modellekre épülő rendszereket, mint a ChatGPT, a Midjourney-hez hasonló képgenerátorokat, illetve a szöveges utasítás alapján videókat létrehozó eszközöket is. A Grow Digitalon bemutatkozott például az A-dapt nevű startup is, amely egy online terméket kínál a beszélő érzelmeinek felismerésére. A szakértők fel is hívták a figyelmet arra, hogy igaz, létezik ilyen technológia, de ezeket a megoldásokat csak fenntartásokkal és korlátozottan lehet biztonságosan használni.

Bár a technológia lehetővé teszi a mesterséges intelligencia alkalmazását számtalan érzékenynek minősülő területen, maguk a fejlesztők is elkötelezettek amellett, hogy termékeik és szolgáltatásaik megbízhatók legyenek és megfeleljenek az etikai normáknak – legalábbis egyelőre globálisan és Európában is egyetértés van ebben. Éppen ezért sürgősen szükség van arra, hogy az EU és a nemzeti kormányok minél hamarabb döntsenek arról, hogyan szabályozzák a technológia fejlesztését és használatát.

Ki vagy mi az MI?

Mazzini azt is kihangsúlyozta, hogy a mesterséges intelligencia, bár sok esetben azt a benyomást keltheti, hogy úgy tud beszélni és viselkedni, mint egy hús-vér ember, valójában egyáltalán nem emberi lény, hanem egy termék. Nem tud felelősséget vállalni, és ezért mindig tudatában kell lennünk annak, hogy valójában ki a felelős a gép tetteiért: „A mesterséges intelligencia jogi személyként való kezelésének gondolata már korábban is felmerült az uniós vitákban, de a Bizottság nem terjesztette fel a javaslatában.”

Ezért szerinte úgy kell tekintenünk az MI-re, mint egy olyan termékre, amit az emberek azért hoztak létre, hogy őket szolgálja. A szabályozók pedig nem a technológiát mint olyat akarják szabályozni, hanem annak használatát, ezért az AI Act azonosítja a kockázati szinteket, ezek szerint osztályozza az MI használatát, és annak megfelelően ír elő beavatkozási lehetőségeket, hogy mennyire kockázatos az adott alkalmazási helyzet.

A legszigorúbb szabályozás (tilalom) azokra a területekre vonatkozik, ahol a mesterséges intelligencia olyan kockázatot jelenthet, ami elfogadhatatlannak tekinthető. Az AI Act három kockázati kategóriát fogalmaz meg, és a magas kockázatú alkalmazásokban ágazati szintű rendelkezéseket tartalmaz – többek között ez teszi olyan összetetté az uniós szintű szabályozást. Az Európai Parlament és az Európai Tanács azonban egyetért a Bizottsággal abban, hogy az MI-törvénynek horizontális és kockázatalapú megközelítést kell alkalmaznia.

Az elfogadhatatlan kockázatú alkalmazások példájaként Mazzini a társadalmi pontrendszereket vagy a manipulatív alkalmazásokat említette. A Bizottság javaslata szerint amikor a mesterséges intelligencia olyan kockázatot jelent, ami inkább a személyekkel szembeni átláthatóság hiányához kapcsolódik, például az emberekkel interakcióba lépő (mint egy chatbot és a biometrikus alapon kategorizáló vagy érzelemfelismerő) rendszerek esetében, az egyént tájékoztatni kell, ha kapcsolatba kerül az alkalmazással. Más helyzetekben, amikor az MI magas kockázatot jelent, az AI Act úgy rendelkezik, hogy magukat a rendszereket nem kell betiltani, de a forgalmazás előtt meg kell felelniük az uniós követelményeknek.

„Ez hasonló a CE-jelöléshez, ami minden európai terméken megtalálható” – mondta a szakértő, hozzátéve, hogy ez a felhasználóknak is adhat némi biztonságérzetet, hiszen így legalább tudják, hogy mivel van dolguk. A Bizottság azt javasolta, hogy a generatív mesterséges intelligencia felhasználóinak fel kell tüntetniük a létrehozott tartalmon, hogy az adott kép vagy videó létrehozásához mesterséges intelligenciát vett igénybe. Arról azonban még folyik a vita, hogy a tartalomnak rendelkeznie kell-e valamilyen digitális vízjellel is, ami automatikusan kíséri a mesterségesen generált tartalmat – ennek a megközelítésnek a hatékonysága és technikai megvalósíthatósága egyelőre kérdéses, a szakértőknek sincs egységes álláspontjuk a kérdésben. Ahhoz viszont mindenképpen szükség van további technikai megoldásokra, hogy az MI által generált képek, videók vagy szövegek felismerésével ellenőrizni lehessen a szabályok betartását.

Szabályozás ide vagy oda, az MI tovább fejlődik

Mazzini optimistán látja a szabályozás folyamatát, és bízik abban, hogy már idén politikai megállapodás születhet az AI Actről. A Qubitnek elmondta, hogy ha a megállapodás a következő hat hónapban megszületik, a szöveget technikai szinten a Tanács új elnöksége alatt, 2024 első negyedévében véglegesíthetik. Ez ugyan nem jelent azonnali hatályba lépést, de határozott előrelépés lenne annak irányába – a véglegesítés után akár két év is eltelhet, mire a jogszabályt implementálják a tagállamok. „A GDPR-hoz hasonlóan a tagállamoknak és a gazdasági szereplőknek is időt kell adnunk a végrehajtásra való felkészülésre” – mondta Mazzini.

A mesterséges tartalmakkal történő félretájékoztatás problémáját ugyanakkor nem lehet csak a gépi intelligencia szabályozásával megoldani, hiszen abban fontos összetevő a terjesztés is, az MI által generált valótlan állításokat ugyanis hús-vér emberek terjeszthetik tovább – az információ terjesztése és annak szabályozása a DSA (Digital Services Act) egyik központi témája. Ezért Mazzini úgy véli, hogy fontos a két szabályozást együtt kezelni, amikor a hamis információk terjedésének megfékezéséről van szó.

Azonban addig, amíg az olyan platformok, mint a Facebook vagy a Twitter akár akaratukon kívül felületet biztosítanak a hamis információk terjedésének, szinte esélye sincs az EU-nak és a kormányoknak az MI-vel generált hamis tartalmak szűrésére. Mazzini viszont bízik abban, hogy ezek a cégek is felismerik az érdeküket és a felelősségüket abban, hogy az online tér ne váljon még veszélyesebbé a dezinformációk össztüzében.

Az innovációt támogatni, a felhasználókat pedig védeni kell

Az Európai Bizottság szerint, ahogy Mazzini is megfogalmazta, fontos, hogy a szabályozás ne fojtsa meg az innovációt. Teret és lehetőséget akarnak biztosítani a cégeknek a fejlesztésekre, de csak úgy, ha ezzel nem járnak rosszul az EU polgárai sem. A szabályozás tehát inkább az alkalmazásról szól, és ebben a szerdai tárgyalások során a Parlament is egyetértett.

Ugyanakkor a véleménymanipuláció kockázatát magasnak minősítették, a választási eredményeket is befolyásolni képes rendszereket szigorúan felügyelnék. A következő lépés most az, hogy a Bizottság által előterjesztett és a Parlamentben stabil egyetértésben megszavazott javaslatcsomagot a Tanáccsal is megvitassák – ebben a folyamatban a Bizottság már inkább csak támogatóként vesz részt, az AI Act alapjait az eddigi munkájukkal már lefektették. Ha minden jól alakul, néhány év múlva már az egész EU-ban érvényes lehet az a szabályozási keretrendszer, amire sokak szerint már évek óta szükség lenne.

Kapcsolódó cikkek a Qubiten:

link Forrás
link Forrás
link Forrás