Gondolatvezetők
Az egyensúly megtalálása: Globális megközelítések a mesterséges intelligenciával kapcsolatos kockázatok enyhítésére

Nem titok, hogy az elmúlt években a modern technológiák az etikai határokat feszegették a meglévő jogi kereteken belül, amelyeket nem kifejezetten nekik terveztek, ami jogi és szabályozási aknamezőkhöz vezetett. Ennek hatásainak leküzdésére a szabályozó hatóságok az országok és régiók között különféle módokon járnak el, növelve a globális feszültségeket, amikor nem sikerül megállapodásra jutni.
Ezeket a szabályozási különbségeket a közelmúltban Párizsban megrendezett MI Akciócsúcstalálkozón emelték ki. zárónyilatkozat Az esemény középpontjában a mesterséges intelligencia fejlesztésében rejlő befogadás és nyitottság kérdései álltak. Érdekes módon csak a biztonságot és a megbízhatóságot említették, anélkül, hogy hangsúlyozták volna a konkrét mesterséges intelligenciával kapcsolatos kockázatokat, például a biztonsági fenyegetéseket. A 60 nemzet által kidolgozott dokumentum az Egyesült Királyság és az Egyesült Államok feltűnően hiányoztak a nyilatkozat aláírásaiból, ami jól mutatja, milyen kevés a konszenzus jelenleg a kulcsfontosságú országok között.
A mesterséges intelligencia kockázatainak globális kezelése
A mesterséges intelligencia fejlesztését és telepítését országonként eltérően szabályozzák. Mindazonáltal a legtöbbjük a két szélsőség – az Egyesült Államok és az Európai Unió (EU) álláspontja – között helyezkedik el.
Az amerikai módszer: először innováció, aztán szabályozás
Az Egyesült Államokban nincsenek szövetségi szintű törvények, amelyek kifejezetten a mesterséges intelligenciát szabályoznák, ehelyett piaci alapú megoldásokra és önkéntes irányelvekre támaszkodik. Van azonban néhány kulcsfontosságú jogszabály a mesterséges intelligenciára vonatkozóan, beleértve a National AI Initiative Act-et, amelynek célja a szövetségi MI-kutatások koordinálása, a Federal Aviation Administration Reauthorisation Act-et és a National Institute of Standards and Technology (NIST) önkéntes kockázatkezelési keretrendszerét.
Az amerikai szabályozási környezet továbbra is változékony és nagy politikai változásoknak van kitéve. Például 2023 októberében Biden elnök kiadott egy Végrehajtási rendelet a biztonságos, megbízható és védett mesterséges intelligenciáról, szabványokat vezetve be a kritikus infrastruktúrára vonatkozóan, fokozva a mesterséges intelligencia által vezérelt kiberbiztonságot és szabályozva a szövetségileg finanszírozott MI-projekteket. 2025 januárjában azonban Trump elnök visszavonta ezt a végrehajtási utasítást, eltávolodva a szabályozástól és az innováció előtérbe helyezése felé.
Az amerikai megközelítésnek vannak kritikusai. Megjegyzik, hogy a „töredezett természet„egy bonyolult szabályok hálózatához vezet, amely”hiányoznak a végrehajtható szabványok”, és rendelkezik „hiányosságok az adatvédelemben.” Az álláspont azonban összességében változóban van – 2024-ben az állami törvényhozók bevezették közel 700 új mesterséges intelligenciával kapcsolatos jogszabály és voltak több meghallgatás a mesterséges intelligenciáról a kormányzásban, valamint a mesterséges intelligenciáról és a szellemi tulajdonról. Bár nyilvánvaló, hogy az Egyesült Államok kormánya nem riad vissza a szabályozástól, egyértelműen keresi a módját annak megvalósítására anélkül, hogy az innovációt veszélyeztetné.
Az EU útja: a megelőzés előtérbe helyezése
Az EU más megközelítést választott. 2024 augusztusában az Európai Parlament és a Tanács bevezette a Mesterséges intelligenciáról szóló törvény (AI törvény), amelyet széles körben a mai napig a mesterséges intelligencia legátfogóbb szabályozásának tartanak. Kockázatalapú megközelítés alkalmazásával a törvény szigorú szabályokat ír elő a nagy érzékenységű MI-rendszerekre, például az egészségügyben és a kritikus infrastruktúrában használtakra. Az alacsony kockázatú alkalmazások csak minimális felügyelettel rendelkeznek, míg egyes alkalmazásokban, például a kormányzatilag működtetett közösségi pontozási rendszerekben, teljesen tilos.
Az EU-ban a megfelelés nemcsak a határain belül kötelező, hanem minden, az EU-ban működő vagy az EU-n kívüli piacán MI-megoldásokat kínáló MI-rendszerek szolgáltatója, forgalmazója vagy felhasználója számára is – még akkor is, ha a rendszert az EU-n kívül fejlesztették ki. Valószínű, hogy ez kihívások elé állítja majd az integrált termékeket kínáló amerikai és más, nem EU-s szolgáltatókat, miközben alkalmazkodnak.
Az EU megközelítését kritizáló vélemények között szerepel az állítólagos nem sikerült aranystandardot felállítani az emberi jogokért. Túlzott bonyolultság szintén felmerült a tisztázatlansággal együtt. A kritikusok aggódnak az EU rendkívül szigorú műszaki követelmények, mert egy olyan időszakban történnek, amikor az EU a versenyképességének növelésére törekszik.
A szabályozási középút megtalálása
Eközben az Egyesült Királyság egy „könnyűsúlyú” keretrendszert fogadott el, amely valahol az EU és az USA között helyezkedik el, és olyan alapvető értékeken alapul, mint a biztonság, a tisztesség és az átláthatóság. A meglévő szabályozó hatóságok, mint például az Információs Biztos Hivatala, jogosultak ezen elvek végrehajtására a saját területükön.
Az Egyesült Királyság kormánya közzétette a mesterséges intelligencia lehetőségeire vonatkozó cselekvési tervet, amely felvázolja a mesterséges intelligencia alapjaiba való befektetés, a mesterséges intelligencia gazdaságokon átívelő adaptációjának megvalósítása és a „hazai” mesterséges intelligenciarendszerek előmozdítása érdekében hozott intézkedéseket. 2023 novemberében az Egyesült Királyság megalapította a AI Biztonsági Intézet (AISI), amely a Frontier AI Taskforce-ból fejlődött ki. Az AISI-t a fejlett MI-modellek biztonságának értékelésére hozták létre, és ennek érdekében a nagyobb fejlesztőkkel együttműködve biztonsági tesztek révén érték el ezt.
Az Egyesült Királyság mesterséges intelligencia szabályozásával kapcsolatos megközelítését azonban kritizálják többek között korlátozott végrehajtási lehetőségek és egy a koordináció hiánya az ágazati jogszabályok között. A kritikusok a központi szabályozó hatóság hiányát is észrevették.
Az Egyesült Királysághoz hasonlóan más nagyobb országok is megtalálták a helyüket az USA-EU spektrumban. Például Kanada kockázatalapú megközelítést vezetett be a javasolt MI és Adattörvénnyel (AIDA), amelynek célja az innováció, a biztonság és az etikai megfontolások közötti egyensúly megteremtése. Japán „emberközpontú” megközelítést alkalmazott a MI-vel kapcsolatban azáltal, hogy olyan irányelveket tett közzé, amelyek elősegítik a megbízható fejlesztést. Eközben Kínában a MI-szabályozást szigorúan az állam ellenőrzi, a közelmúltbeli törvények előírják, hogy a generatív MI-modelleket biztonsági értékelésnek vessék alá, és igazítsák őket a szocialista értékekhez. Az Egyesült Királysághoz hasonlóan Ausztrália is kiadott egy MI-etikai keretrendszert, és fontolgatja adatvédelmi törvényeinek frissítését, hogy kezelje a MI-innováció által támasztott új kihívásokat.
Hogyan lehet nemzetközi együttműködést kialakítani?
Ahogy a mesterséges intelligencia technológiája folyamatosan fejlődik, a szabályozási megközelítések közötti különbségek egyre nyilvánvalóbbak. Az adatvédelemmel, a szerzői jogvédelemmel és egyéb szempontokkal kapcsolatos minden egyes megközelítés egyre nehezebbé teszi a mesterséges intelligenciával kapcsolatos kulcsfontosságú kockázatokkal kapcsolatos koherens globális konszenzus elérését. Ilyen körülmények között a nemzetközi együttműködés kulcsfontosságú az olyan alapvető szabványok meghatározásához, amelyek a kulcsfontosságú kockázatokat az innováció korlátozása nélkül kezelik.
A nemzetközi együttműködésre a válasz olyan globális szervezeteknél kereshető, mint a Gazdasági Együttműködési és Fejlesztési Szervezet (OECD), az Egyesült Nemzetek Szervezete és számos más szervezet, amelyek jelenleg a mesterséges intelligencia nemzetközi szabványainak és etikai irányelveinek kidolgozásán dolgoznak. Az előrevezető út nem lesz könnyű, mivel az iparág minden szereplőjének közös nevezőt kell találnia. Ha figyelembe vesszük, hogy az innováció fénysebességgel halad, akkor most jött el az ideje a megbeszélésnek és a megállapodásnak.