Connect with us

Nach strucknutí rovnováhy: Globální přístupy ke zmírnění rizik souvisejících s umělou inteligencí

Myslitelé

Nach strucknutí rovnováhy: Globální přístupy ke zmírnění rizik souvisejících s umělou inteligencí

mm

Nejde o žádné tajemství, že v posledních letech moderní technologie tlačí etické hranice stávajících právních rámců, které nebyly vytvořeny pro ně, což vede k právním a regulačním pastem. Aby se pokusily bojovat proti účinkům toho, regulátoři si zvolili postupovat různými způsoby mezi zeměmi a regiony, zvyšující globální napětí, když nelze dosáhnout dohody.

Tyto regulační rozdíly byly zdůrazněny na nedávném AI Action Summitu v Paříži. Závěrečné prohlášení události se zaměřilo na otázky inkluzivity a otevřenosti ve vývoji umělé inteligence. Zajímavě, pouze obecně zmínilo bezpečnost a důvěryhodnost, bez zdůrazňování konkrétních rizik souvisejících s umělou inteligencí, jako jsou bezpečnostní hrozby. Navrženými 60 národy, Spojené království a Spojené státy byly zjevně chybějící z podpisů prohlášení, což ukazuje, jak málo konsensu je nyní napříč klíčovými zeměmi.

Přístup ke globálnímu řešení rizik umělé inteligence

Vývoj a nasazení umělé inteligence je upraveno odlišně v každé zemi. Přestože většina z nich spadá někam mezi dvě extrémy – postoje Spojených států a Evropské unie.

Americký přístup: Nejprve inovovat, poté regulovat

Ve Spojených státech neexistují žádné federální zákony upravující umělou inteligenci, místo toho se spoléhá na tržní řešení a dobrovolné pokyny. Existují však einige klíčové legislativní akty pro umělou inteligenci, včetně Národní iniciativy umělé inteligence, která má za cíl koordinovat federální výzkum umělé inteligence, Federální letecké správy Reauthorisation Act a dobrovolného rámce pro řízení rizik Národního institutu standardů a technologie (NIST).

Regulační krajina ve Spojených státech zůstává tekutá a podrobena velkým politickým změnám. Například v říjnu 2023 vydal prezident Biden výkonný příkaz o bezpečném, zabezpečeném a důvěryhodném vývoji a používání umělé inteligence, který stanovil standardy pro kritickou infrastrukturu, posílil kybernetickou bezpečnost založenou na umělé inteligenci a upravil federálně financované projekty umělé inteligence. Nicméně v lednu 2025 prezident Trump zrušil tento výkonný příkaz, v obratu od regulace směrem k prioritizaci inovací.

Americký přístup má své kritiky. Ti poukazují na to, že jeho “fragmentovaná povaha” vede k komplexní síti pravidel, která “postrádají vynutitelné standardy“, a má “mezery v ochraně soukromí“. Nicméně, postoj jako celek je v toku – v roce 2024 zavedli zákonodárci států téměř 700 nových legislativních aktů o umělé inteligenci a proběhlo více slyšení o umělé inteligenci ve vládě, jakož i o duševním vlastnictví. Ačkoli je zřejmé, že vláda Spojených států se nebojí regulace, je zřejmé, že hledá způsoby, jak ji implementovat, aniž by musela kompromitovat inovace.

Evropský přístup: Priorita prevence

Evropská unie zvolila odlišný přístup. V srpnu 2024 představil Evropský parlament a Rada Zákon o umělé inteligenci (AI Act), který je považován za nejkomplexnější legislativní akt o regulaci umělé inteligence do dneška. Používáním rizika-založeného přístupu zákon ukládá přísná pravidla pro vysoce citlivé systémy umělé inteligence, například ty používané ve zdravotnictví a kritické infrastruktuře. Nízkorizikové aplikace čelí pouze minimálnímu dohledu, zatímco v některých aplikacích, jako jsou vládní sociální systémy hodnocení, jsou zcela zakázány.

V Evropské unii je dodržování povinné nejen uvnitř jejích hranic, ale také od každého poskytovatele, distributora nebo uživatele systémů umělé inteligence, které operují v Evropské unii, nebo nabízejí řešení umělé inteligence na jejím trhu – i když byl systém vyvinut mimo ni. Je pravděpodobné, že to bude představovat výzvy pro poskytovatele integrovaných produktů ze Spojených států a jiných než evropských zemí, kteří se budou snažit přizpůsobit.

Kritiky evropského přístupu zahrnují jeho údajné selhání při stanovení zlatého standardu pro lidská práva. Nadměrná složitost byla také poznamenána spolu s nedostatkem jasnosti. Kritici se obávají o velmi přísných technických požadavcích Evropské unie, protože přicházejí v době, kdy Evropská unie usiluje o posílení své konkurenceschopnosti.

Nalezení regulačního středního půdorysu

Zatímco Spojené království přijalo “lehký” rámec, který se nachází někde mezi Evropskou unií a Spojenými státy, a je založen na základních hodnotách, jako je bezpečnost, spravedlnost a transparentnost. Stávající regulátoři, jako je Úřad pro informace, mají pravomoc implementovat tyto zásady v rámci svých příslušných oblastí.

Vláda Spojeného království zveřejnila Akční plán pro příležitosti umělé inteligence, který stanoví opatření na investice do základů umělé inteligence, implementaci cross-ekonomického přijetí umělé inteligence a podporu “domácích” systémů umělé inteligence. V listopadu 2023 založilo Spojené království Ústav pro bezpečnost umělé inteligence (AISI), který vznikl z Frontier AI Taskforce. AISI byl vytvořen pro hodnocení bezpečnosti pokročilých modelů umělé inteligence, spolupracující s významnými vývojáři na dosažení tohoto prostřednictvím bezpečnostních testů.

Nicméně, kritiky přístupu Spojeného království k regulaci umělé inteligence zahrnují omezené možnosti vynucení a nedostatek koordinace mezi sektorovou legislativou. Kritici také zaznamenali nedostatek centrální regulační autority.

Stejně jako Spojené království, i ostatní významné země našly své místo někde na spektru Spojených států a Evropské unie. Například Kanada zavedla rizika-založený přístup s navrhovaným zákonem o umělé inteligenci a datech (AIDA), který má za cíl najít rovnováhu mezi inovací, bezpečností a etickými úvahami. Japonsko přijalo “lidmi-střední” přístup k umělé inteligenci vydáním pokynů, které podporují důvěryhodný vývoj. Zatímco v Číně je regulace umělé inteligence těsně kontrolována státem, s nedávnými zákony, které vyžadují, aby modely generativní umělé inteligence prošly bezpečnostními hodnoceními a byly v souladu se socialistickými hodnotami. Podobně jako Austrálie, vydala rámcový dokument pro etiku umělé inteligence a zkoumá aktualizaci svých zákonů o ochraně soukromí, aby řešila vznikající výzvy, které představuje inovace umělé inteligence.

Jak založit mezinárodní spolupráci?

Jak technologie umělé inteligence pokračuje ve vývoji, rozdíly mezi regulačními přístupy se stávají stále více zřejmými. Každý jednotlivý přístup k datové ochraně, ochraně autorských práv a jiným aspektům činí dosažení koherentního globálního konsensu o klíčových rizicích souvisejících s umělou inteligencí stále obtížnějším. V těchto okolnostech je mezinárodní spolupráce zásadní pro stanovení základních standardů, které řeší klíčová rizika, aniž by brzdily inovace.

Odpověď na mezinárodní spolupráci může spočívat v globálních organizacích, jako je Organizace pro ekonomickou spolupráci a rozvoj (OECD), Spojené národy a několik dalších, které目前 pracují na stanovení mezinárodních standardů a etických pokynů pro umělou inteligenci. Cesta vpřed nebude snadná, protože vyžaduje, aby všichni v oboru našli společnou půdu. Pokud vezmeme v úvahu, že inovace postupuje rychlostí světla – čas na diskusi a dohodu je nyní.

Viktorija Lapenyte je Head of Product Legal Counsel ve firmě Oxylabs. S více než desetiletou právní praxí v IT sektoru získala Viktorija Lapėnytė hluboké znalosti v oblasti řešení složitých obchodních a regulatorních výzev jako právní poradce. Dnes je Viktorija Head of Product Legal Counsel ve firmě Oxylabs, která je vedoucí platformou pro sběr webových inteligencí. Tým Viktorije se specializuje na právní složitosti vznikajících technologií zpracování dat, od souladu a řízení regulatorních rizik až po ochranu soukromí a diskuse v odvětví o odpovědném získávání dat.