Felveheti-e az Európai Unió a technológiai versenyt Amerikával és Kínával, ha túlszabályoz?

március 17.
TECH

A mesterséges intelligencia (AI) nemcsak az egyetemi képzések struktúráját alakította át, hanem az egész munkaerőpiacot két részre szakította, és az akadémiai intézményekbe vetett általános bizalmat is megrendítette. Ráadásul az AI szabályozására konzisztens globális keretrendszer sincs, emiatt a hozzá kapcsolódó jogi munka és a társadalmi percepció is nagyon eltérő. Bodó Balázs, az Amszterdami Egyetem (UVA) egyetemi tanára, a jogi kar Advanced Master of Laws in Technology Governance képzésének vezetője többek között az AI európai uniós szabályozásával és egyetemi közegben történő alkalmazásával foglalkozik. A 2024-ben elindított, emelt szintű jogi képzés a digitális technológiával átszőtt társadalmi környezet jogi és nem jogi eszközökkel történő szabályozására, az uniós techszabályozásra, a platformok működésére és a digitális infrastruktúra átalakulására összpontosít.

Bodó Balázs az Amszterdami Egyetem tanára

Qubit: A technológia szabályozásáról szóló képzés szerint hogyan lehet eredményes a technológiai kormányzási keretrendszer?

Bodó Balázs: A technológiai keretek nem mindig vannak összhangban a helyi kulturális, történelmi és intézményi sajátosságokkal. Ez a gyakorlatban például úgy jelentkezik, hogy egy külső technológiai szereplő megpróbálja ránk kényszeríteni azt, ahogy gondolkodjunk: erre jó példa a közösségimédia-platformokat szolgáltató cégek álláspontja a szólásszabadsággal kapcsolatban. Az amerikaiak nagyon büszkék arra, hogy a szólásszabadságot erőteljesen védelmezik, és nagyon kevés korlátja van annak, hogy mit nem szabad mondani. Európa más szinten kezeli a szólásszabadság határait: amikor egy platform saját megítélése szerint a szólásszabadság pártján áll, és nem hajlandó eltávolítani olyan tartalmakat, amik Magyarországon vagy Európában törvénysértők vagy más megítélés alá esnek, akkor jogi konfliktus alakul ki.

Ugyanakkor ezek az esetek túlmutatnak a jogi kérdéseken: társadalmi szinten kell megegyeznünk abban, hogy egy közösség hol húzza meg a szólásszabadság határait. A jogászok vagy adott esetben a mérnökök a saját szűkre szabott szakmai eszköztárukkal kezelik ezt a problémát, ugyanakkor ez nem biztos, hogy jó eredményekhez vezet. A technológiai irányításra vonatkozó képzésen azt tanítjuk a jogászoknak is, hogy nagyon sok társadalmi probléma a technológia, a társadalom és a jog határterületén helyezkedik el. Például egy városban a megépítendő bicikliutak mennyisége sem közlekedésmérnöki probléma: a közösség igényei szerint megkérheti a jogászokat és a mérnököket, hogy teremtsék meg az élhető város jogi és fizikai feltételeit, és ugyanez az eljárás vonatkozik a technológiára is.

Hogyan lehet a nagy nyelvi modelleket úgy integrálni az akadémiai tevékenységekbe, hogy továbbra is a hallgatók, az oktatók és a szellemi termékek javát szolgálják?

Vannak olyan egyetemi kollégák, akik ezekkel az eszközökkel írnak könyvet, vagy ezzel javítanak esszéket; jogászok, akik ezzel készítenek beadványokat; törvényhozók, akik AI-jal írnak törvényt, és hallgatók, akik az AI-t használják a tanulmányaikhoz. Ugyanakkor sokan attól tartanak, hogy az AI-eszközök használata olyan jelenség, mint a GPS alkalmazása: hogyha gépekre vagy másokra bízzuk bizonyos képességeinket, akkor azok fokozatosan elhalhatnak. Természetesen azoknak, akik eleve nehezen tájékozódnak, a GPS segítséget jelent, viszont vannak, akik azért használják, mert egyszerű, gyors, és nem kell rajta gondolkodni.

Drámai lenne, ha ellustulna a gondolkodásunk csak azért, mert valami képes megfogalmazni helyettünk egy koherens gondolatot összetett mondatban. Az is jó kérdés, hogy mi lesz azoknak az intézményeknek a jövője, amik drágán, lassan és nehézkesen állítanak elő tudást, és úgy tűnhet, hogy AI-jal ez a folyamatot gyorsabban és olcsóbban kivitelezhető. Sokat foglalkozom a társadalmi bizalom kérdésével, így különösen foglalkoztat az a probléma, hogy megrendülhet-e az emberek bizalma az egyetem és a tudomány intézményében, a mindenütt jelen levő, AI-generált, néha korrekt, néha abszurd információk miatt.

Egyetemi tanárként tapasztalta, hogy a hallgatók bizonyos képességei az AI miatt silányultak el?

Mi emelt szintű képzést hoztunk létre, amiért ráadásul a hallgatók pénzt is fizetnek, így nem tartok attól, hogy aki Szingapúrból, Dél-Afrikából, Ausztráliából vagy az Egyesült Államokból ide érkezik, és kifizeti a tandíjat, az nem akar tanulni, hanem inkább az AI-jal bűvészkedik. Ugyanakkor ez reálisabb probléma azoknál a 18 éves diákoknál, akik megérkeznek az egyetemre, és fogalmuk sincs, hogy jogászok akarnak-e lenni vagy sem, és megpróbálnak átvergődni a jogi képzésen. Erre az lehet a megoldás, hogy a középiskolából kikerülő elsőéves egyetemistáknak megtanítjuk a forráskritikát, hogy hogyan kell úgy használni az AI-eszközöket, hogy a válaszaikat nem fogadják el feltételek nélkül. A médiaismeret Magyarországon és szinte már mindenhol szerepel a középiskolai tantervben: itt kell megtanítani azokat a képességeket, amelyek segítségével később a társadalom tagjai nem hiszik el kritika nélkül egy AI-videóról, hogy az igazságot látják.

Az Európai Unió mennyire tudja sikeresen lekövetni a mesterséges intelligencia fejlődését? Utol fogja-e érni a valóságot az EU által elindított szabályozás?

Makacs félreértés az, hogy a szabályozás mindig szalad az innováció után. Ez szerencsére nem így van: bár a technológiai innovációk jönnek-mennek, az alkotmányos és emberi jogok, illetve az ezekre épülő jogok és kötelezettségek masszív jogi és intézményi környezetet alkotnak. Bár az olyan technológia-specifikus szabályozások, mint az AI Act [mesterséges intelligenciáról szóló rendelet], vagy a Digital Services Act [DSA, digitális szolgáltatásokról szóló rendelet] egy technológia konkrét technikai és intézményi sajátosságaira, illetve vélt vagy valós hiányosságaira vonatkozó szabályokat tartalmaznak, sokszor inkább egy adott pillanatban érvényes állapotra reagálnak. Éppen ezért az a kérdés is rendre felmerül, hogy egy adott probléma kezelésére végül melyik szabályozás működik a leghatékonyabban. Az Európai Unió létrehozta az AI Actet, a DSA-t, a DMA-t [digitális piacokról szóló rendelet], ugyanakkor elképzelhető, hogy az AI-eszközök társadalmi használatának szabályozására az AI Act helyett például az adatvédelmi rendelet [GDPR] lesz a leghatékonyabb jogi eszköz.

Mik a leginkább alulértékelt, az AI-hoz köthető uniós szabályozások, amiket az EU-nak sürgősen napirendre kellene vennie?

Európában is népszerű az az álláspont, hogy az amerikai és a kínai technológiai innovációk azért vannak vezető szerepben, mert ezek az országok nem korlátozzák a techcégeiket bonyolult szabályozással, hanem hagyják őket modernizálni: így ezek a cégek letarolhatják a piacot. Azaz a túlszabályozás miatt nincs az EU-ban egyetlen milliárd dollár értékű techcég sem. Szerintem a következő pár év kihívása az lesz, hogy képesek leszünk-e ezen a rövidlátó és hamis elképzelésen túllépni. Szerintem ugyanis nem baj, hogy Európa nem a trillió dolláros techcégek számában jár élen, hanem a szabályozásban. Az európai polgárok és közösségek jól járnak azzal, hogy az európai szabályozási környezet nem engedi túlságosan nagyra nőni és teljes kontroll nélkül üzemelni a techcégeket. Az EU így őrizheti meg a saját értékeit, amiket az Egyesült Államokban vagy Kínában kifejlesztett technológiák nem ismernek és nem is érdekli őket.

Milyen globális különbségekkel járhat hosszú távon, hogy ha Amerika és Kína másképp szabályozza azokat a technológiai vállalatokat, amiket Európa szigorúan kontrollál?

Az amerikai modell, bár a szabadversenyes kapitalizmus címkét viseli, inkább arra a neoliberális gazdasági és politikai ideológiára épül, amely szerint bármilyen erőforrás értékét annak gazdasági haszna jelöli ki. A szabályozás hiánya azt jelenti, hogy gyakorlatilag mindenféle gond nélkül ki lehet sajátítani és privát vagyonná lehet alakítani minden emberi, természeti vagy intellektuális erőforrást a társadalmi költségektől és következményektől függetlenül. Ennek az én szememben egy diszfunkcionális társadalom az ára: az amerikai társadalom, gazdaság és politika jelenlegi aggasztó állapota nem független attól, hogy az ottani cégek – különösképpen a társadalmi, gazdasági és politikai viszonyokban egyre központibb szerepet játszó techcégek –, milyen korlátokkal szembesülnek vagy éppen nem szembesülnek. Míg az amerikai modellben az a szabályozás célja, hogy eltakarítson minden lehetséges korlátot a piac elől, addig a kínai megközelítésnek elsősorban az a lényege, hogy a piaci szabályok összhangban legyenek a nagyon erős központi politikai hatalom társadalmi céljaival.

Ezzel szemben Európa egy harmadik típusú modellt alkalmaz: eszerint az embereknek vannak emberi mivoltukhoz, állampolgárságukhoz és fogyasztó mivoltukhoz fűződő jogaik, amik ezekben a minőségeikben és viszonyaikban nagyon erősen védik őket. Így lehet az autonóm individuum több, mint alattvaló vagy puszta gazdasági erőforrás. És bár ez a modell sem problémamentes, az európai hagyományból következik ez a megközelítés. A globális gazdasági és technológiai környezet miatt úgy tűnhet, hogy mindannyian ugyanazon a pályán versenyzünk, ahol a siker mércéje a gazdasági teljesítmény, holott ez elfedi azt a tényt, hogy nem egy pálya van, és nem minden szituáció versenyhelyzet.

Az AI boom óta számos szektorban felmerült az a félelem, hogy az AI elveszi a dolgozók munkáját. Hogyan fogja átalakítani az AI a munkaerőpiacot?

Szerintem nagyon más lesz a centrumban és a periférián elhelyezkedő országok pályája. A centrumországokban zajlik az innováció és a termékfejlesztések java, míg a periférián lévő országokban az alacsony hozzáadott értékű feladatok – mint az összeszerelő, az értékesítő vagy ügyfélszolgálatos pozíciók – vannak jelen. Mindkét tevékenységre hatással lesz az AI, de attól tartok, hogy míg az innovációban az AI kiegészítő szerepet fog játszani, addig az alacsony hozzáadott értékű munkakörök esetében inkább kiváltja az emberi munkaerőt. Közpolitikai kérdés, hogy hogyan lehet adott országban úgy átalakítani a gazdaság és ezen belül a munkaerőpiac szerkezetét, hogy többségben legyenek az AI által nem fenyegetett tevékenységek.

Kapcsolódó cikk: