výhonek Nedostatky návrhu zákona EU o umělé inteligenci – Unite.AI
Spojte se s námi

Nařízení

Nedostatky návrhu zákona EU o umělé inteligenci

mm
aktualizováno on

Nová právní kritika návrhu Evropské unie „zákon o umělé inteligence“ staví proti navrhovaným nařízením širokou škálu kritik vydáno v dubnua dospěl k závěru, že velká část dokumentu je „spojena dohromady“ z málo použitelné spotřebitelské regulace z 1980. let; že ve skutečnosti podporuje deregulované prostředí umělé inteligence v Evropě, spíše než aby toto odvětví podléhalo soudržné regulaci; a – mezi spoustou dalších kritik – že návrhy mapují budoucí regulační rámec umělé inteligence, který má „malý smysl a dopad“.

Opravňovaný Demystifikování návrhu zákona EU o umělé inteligencise předtisk je spolupráce mezi výzkumníky z UCL London a Radboud University v Nijmegenu.

Dokument přispívá k rostoucímu počtu negativních názorů na navrhovanou implementaci (spíše než tolik obdivovaný záměr) regulačního rámce umělé inteligence, včetně sporu v dubnu jednoho z přispěvatelů návrhu nařízení, že navrhované pokyny jsou „vlažné, krátkozraké a záměrně vágní“, což charakterizovalo dokument Evropské komise jako zastánce „falešné etiky“.

Manipulativní systémy umělé inteligence

Nový dokument tvrdí, že omezení „manipulativních systémů“ navrhovaná zákonem o AI je ochromeno vágní a dokonce protichůdnou definicí „škody“ s komentářem, že „[a] cynik může mít pocit, že se Komise více zajímá o rétorickou hodnotu zákazů než o praktickou hodnotu. účinek'.

Projekt návrh nařízení nastínit dvě domnělé zakázané praktiky:

a) uvedení na trh, uvedení do provozu nebo používání systému umělé inteligence, který využívá podprahové techniky mimo vědomí osoby za účelem podstatného narušení chování osoby způsobem, který způsobuje nebo pravděpodobně způsobí fyzické fyzické zdraví této osoby nebo jiné osoby nebo psychickou újmu;

b) uvedení na trh, uvedení do provozu nebo používání systému umělé inteligence, který využívá jakoukoli zranitelnost určité skupiny osob z důvodu jejich věku, tělesného nebo duševního postižení, za účelem podstatného narušení chování osoby náležející k této skupině způsobem, který této osobě nebo jiné osobě způsobuje nebo může způsobit fyzickou nebo psychickou újmu;

Výzkumníci tvrdí, že tato omezení neřeší, zda jsou služby nebo software poskytovatele umělé inteligence úspěšné při prosazování jejich vlastních cílů, ale pouze v případě, že koncový uživatel v tomto procesu utrpí „poškození“. Dodávají, že definice škod v návrhu je fatálně omezena na jednotlivé uživatele, spíše než na druh kolektivní nebo společenské újmy, který lze rozumně odvodit z řady kontroverzí založených na umělé inteligenci z posledních let, jako je debakl Cambridge Analytica.

Dokument uvádí, že „ve skutečném životě se může škoda nahromadit, aniž by jediná událost překročila práh závažnosti, takže je obtížné ji prokázat“.

Škodlivé systémy umělé inteligence povoleny, ale ne pro spotřebu v EU

Zákon o AI navrhuje zavést zákaz biometrických systémů „v reálném čase“ ve veřejném prostoru ze strany vymáhání práva. Ačkoli určitá skepse veřejnosti byla zaměřena na výjimky, které návrhy pro boj proti terorismu, obchodování s dětmi a prosazování evropského zatýkacího rozkazu uvádějí, vědci také poznamenávají, že dodavatelům nic nezabrání v prodeji biometrických systémů, které odporují represivním režimům.

List uvádí, že toto je již historická praxe, jak odhalila zpráva Amnesty international z roku 2020.

Dále uvádí, že specifikace biometrického systému „v reálném čase“ v zákoně o AI je svévolná a vylučuje off-line analytické systémy, jako je pozdější zpracování videozáznamů z protestních akcí.

Navíc je třeba poznamenat, že návrhy nenabízejí žádný mechanismus pro omezení biometrických systémů, které jsou ne související s vymáháním práva, které jsou místo toho líně odkládány GDPR; a že samotné GDPR „ukládá požadavek vysoce kvalitního individuálního souhlasu pro každou skenovanou osobu, který je prakticky nemožné splnit“.

Znění tohoto paragrafu zákona o umělé inteligenci je rovněž předmětem kritiky ze strany výzkumníků. Návrh stanoví, že pro zavedení biometrických systémů pro „individuální použití“ takových systémů příslušnými orgány bude vyžadováno předběžné povolení – ale neobjasňuje, co v tomto kontextu znamená „individuální použití“. List poznamenává, že sporné soudní příkazy mohou být tematickýa týkají se širokých organizací, účelů a míst.

Návrhy nařízení dále nestanoví transparentní mechanismus pro počet a typ vydaných oprávnění, což ztěžuje veřejnou kontrolu.

Nařízení o outsourcingu podle „harmonizovaných standardů“

Výzkum uvádí, že nejdůležitější subjekty v zákoně o AI nejsou ve skutečnosti v návrzích předpisů zmíněny ani jednou: CEN (Evropský výbor pro normalizaci) a CENELEC (Evropský výbor pro normalizaci v elektrotechnice) – dvě ze tří evropských normalizačních organizací (ESO), které Evropská komise může pověřit formulováním harmonizovaných norem, které by v mnoha případech zůstaly řídícím regulačním rámcem pro určité typy služeb a zavádění AI.

To v podstatě znamená, že výrobci umělé inteligence se mohou rozhodnout, že budou dodržovat standardy toho, co je ve skutečnosti konkurenčním, spíše než doplňkové předpisy, místo aby splňovali základní požadavky uvedené v zákoně o umělé inteligenci. To umožňuje poskytovatelům volněji interpretovat navrhovaná nařízení, až vstoupí v platnost v letech 2024–5.

Výzkumníci tohoto dokumentu se také domnívají, že roky průmyslového lobbingu mezi normalizačními orgány pravděpodobně značně předefinují tyto „základní standardy“ a navrhují, aby „ideální“ předpisy začínaly na vyšší etické úrovni a legislativní jasnosti, i když jen proto, aby se to vysvětlilo. nevyhnutelný proces opotřebování.

Legitimizace klamu systémů rozpoznávání emocí

Zákon o AI obsahuje ustanovení proti zavádění systémů rozpoznávání a kategorizace emocí – rámců, které nemusí nutně identifikovat jednotlivce, ale buď tvrdí, že rozumí tomu, co cítí, nebo že jsou schopny je kategorizovat z hlediska pohlaví, etnického původu a různých dalších ekonomické a sociální významy.

Výzkumníci tvrdí, že tato klauzule je bezpředmětná, protože GDPR již ukládá dodavatelům takových systémů povinnost poskytovat uživatelům jasné informace o používání takových systémů, aby se uživatelé mohli odhlásit (což může zahrnovat nepoužívat online službu nebo nevstupovat do oblast, kde jsou takové systémy oznámeny).

Ještě důležitější je, že článek tvrdí, že tato klauzule legitimizuje a debunked technologie a dále charakterizuje FACS-stylové systémy rozpoznávání emocí ve světle ostudné historie frenologie a dalších téměř šamanistických přístupů k sociální kategorizaci z raného průmyslového věku.

„Ti, kteří tvrdí, že detekují emoce, používají příliš zjednodušené, sporné taxonomie; nesprávně předpokládat univerzálnost napříč kulturami a kontexty; a riskovat „[nás] zpět do frenologické minulosti“ analýzy charakterových rysů z obličejových struktur. Ustanovení zákona o rozpoznávání emocí a biometrické kategorizaci se zdají nedostatečná ke zmírnění rizik.“

Příliš skromný návrh

Kromě toho se výzkumníci zabývají dalšími vnímanými nedostatky v zákoně o AI s ohledem na regulaci deepfakes, nedostatečný dohled nad uhlíkovými emisemi systémů AI, duplicitu regulačního dohledu s jinými rámci a nedostatečnou definici stíhatelných právnických osob.

Vyzývají zákonodárce a občanské aktivisty, aby podnikli kroky k nápravě zjištěných problémů, a dále poznamenávají, že i jejich rozsáhlá dekonstrukce návrhů nařízení musela kvůli nedostatku místa vynechat mnoho dalších oblastí zájmu.

Dokument nicméně oceňuje předvojový pokus zákona zavést systém horizontální regulace systémů umělé inteligence, přičemž uvádí jeho mnoho „rozumných prvků“, jako je vytvoření hierarchie úrovní hodnocení rizik, závazek zavést zákazy a návrh veřejné databáze. systémů, do kterých by dodavatelé museli přispívat, aby získali evropskou legitimitu, i když je třeba vzít v úvahu právní problémy, které tento pozdější požadavek pravděpodobně vyvolá.