škrbina Nedostaci nacrta EU zakona o umjetnoj inteligenciji - Unite.AI
Povežite se s nama

Propis

Nedostaci nacrta EU zakona o umjetnoj inteligenciji

mm
Ažurirano on

Nova pravna kritika nacrta Europske unije 'Akta o AI' iznosi široku lepezu kritika na predložene propise objavljeno u travnju, zaključujući da je velik dio dokumenta 'sašiven' iz jedva primjenjivih potrošačkih propisa iz 1980-ih; da zapravo promiče deregulirano okruženje umjetne inteligencije u Europi, umjesto da sektor podvrgne koherentnoj regulaciji; i – među nizom drugih kritika – da prijedlozi ocrtavaju budući regulatorni okvir umjetne inteligencije koji ima 'malo smisla i utjecaja'.

Pod naslovom Demistificiranje nacrta EU zakona o umjetnoj inteligencijije pred-print je suradnja između istraživača s UCL-a u Londonu i Sveučilišta Radboud u Nijmegenu.

Dokument pridonosi rastućem broju negativnih mišljenja o predloženoj implementaciji (umjesto namjeri kojoj se toliko dive) regulatornog okvira umjetne inteligencije, uključujući tvrdnju u travnju jednog od autora nacrta uredbe da su predložene smjernice 'mlake, kratkovidne i namjerno nejasne', čime je dokument Europske komisije okarakteriziran kao zagovornik 'lažne etike'.

Manipulativni AI sustavi

Novi dokument tvrdi da su predložena ograničenja Zakona o umjetnoj inteligenciji na 'manipulativne sustave' sputana nejasnom, pa čak i kontradiktornom definicijom 'štete', komentirajući da bi '[neki] cinik mogao smatrati da je Komisija više zainteresirana za retoričku vrijednost zabrana nego za praktičnu. posljedica'.

Korištenje električnih romobila ističe nacrt propisa navesti dvije navodno zabranjene prakse:

(a) stavljanje na tržište, puštanje u rad ili korištenje sustava umjetne inteligencije koji primjenjuje subliminalne tehnike izvan svijesti osobe kako bi se materijalno iskrivilo ponašanje osobe na način koji uzrokuje ili bi mogao uzrokovati fizičku fizičku aktivnost te osobe ili druge osobe ili psihička ozljeda;

(b) stavljanje na tržište, puštanje u rad ili korištenje sustava umjetne inteligencije koji iskorištava bilo koju ranjivost određene skupine osoba zbog njihove dobi, tjelesnog ili mentalnog invaliditeta, kako bi se materijalno narušilo ponašanje osobe koji se odnose na tu skupinu na način koji uzrokuje ili bi mogao uzrokovati fizičku ili psihičku štetu toj osobi ili drugoj osobi;

Istraživači tvrde da se ova ograničenja ne bave time jesu li usluge ili softver pružatelja umjetne inteligencije uspješni u postizanju vlastitih ciljeva, već samo ako krajnji korisnik pretrpi 'štetu' u procesu. Dodaju da je definicija štete u nacrtu smrtonosno ograničena na pojedinačne korisnike, a ne na vrstu kolektivne ili društvene štete koja se može razumno zaključiti iz niza kontroverzi temeljenih na umjetnoj inteligenciji posljednjih godina, kao što je debakl Cambridge Analytice.

Rad primjećuje da se 'u stvarnom životu šteta može akumulirati, a da niti jedan događaj ne pomakne prag ozbiljnosti, što otežava dokazivanje'.

Štetni AI sustavi dopušteni, ali nisu za potrošnju u EU

Zakonom o umjetnoj inteligenciji predlaže se provedba zabrane biometrijskih sustava 'u stvarnom vremenu' u javnim prostorima od strane tijela za provođenje zakona. Iako je određeni javni skepticizam bio usmjeren na iznimke koje prijedlozi čine za borbu protiv terorizma, trgovinu djecom i traženje europskog uhidbenog naloga, istraživači također primjećuju da ništa ne bi spriječilo dobavljače da prodaju proturječne biometrijske sustave represivnim režimima.

List primjećuje da je to već povijesna praksa, kako je otkriveno u izvješću Amnesty internationala iz 2020.

Nadalje se navodi da je specifikacija biometrijskog sustava 'u stvarnom vremenu' prema Zakonu o umjetnoj inteligenciji proizvoljna i isključuje off-line analitičke sustave, kao što je kasnija obrada video zapisa s prosvjednih događaja.

Osim toga, napominje se da prijedlozi ne nude nikakav mehanizam za ograničavanje biometrijskih sustava koji jesu ne povezani s provedbom zakona, koji su umjesto toga lijeno odgođeni GDPR-u; te da sam GDPR 'postavlja zahtjev visokokvalitetnog, individualnog pristanka za svaku skeniranu osobu koji je zapravo nemoguće ispuniti'.

Tekst ovog odjeljka Zakona o umjetnoj inteligenciji također je izložen kritikama istraživača. Nacrt predviđa da će biti potrebno prethodno odobrenje za postavljanje biometrijskih sustava za 'osobnu upotrebu' takvih sustava od strane nadležnih tijela – ali ne pojašnjava što 'individualna uporaba' znači u ovom kontekstu. List napominje da nalozi mogu biti kontroverzni tematski, i odnose se na široke organizacije, svrhe i mjesta.

Nadalje, nacrtom pravilnika nije propisan mehanizam transparentnosti za broj i vrstu izdanih odobrenja, što otežava javni nadzor.

Uredba o eksternalizaciji 'Harmoniziranih standarda'

Istraživanje navodi da se najvažniji subjekti u Zakonu o umjetnoj inteligenciji zapravo niti jednom ne spominju u nacrtima propisa: CEN (Europski odbor za standardizaciju) i CENELEC (Europski odbor za elektrotehničku normizaciju) – dvije od tri Europske organizacije za standardizaciju (ESO) koje Europska komisija može dati mandat za formuliranje usklađenih standarda, koji bi u mnogim slučajevima ostali vodeći regulatorni okviri za određene vrste usluga i implementacija AI.

To zapravo znači da proizvođači umjetne inteligencije mogu odlučiti slijediti standarde onoga što se zapravo natječu umjesto komplementarnih propisa, umjesto ispunjavanja bitnih zahtjeva navedenih u Zakonu o umjetnoj inteligenciji. To pružateljima usluga omogućuje labavije tumačenje predloženih propisa kada stupe na snagu 2024.-5.

Istraživači ovog rada također smatraju da će godine industrijskog lobiranja među tijelima za normizaciju vjerojatno znatno redefinirati te 'bitne standarde' i sugeriraju da bi 'idealni' propisi trebali započeti na višoj etičkoj razini i zakonodavnoj jasnoći, barem kako bi se uzela u obzir ovo neizbježan proces trošenja.

Legitimiranje zabluda sustava za prepoznavanje emocija

Zakon o umjetnoj inteligenciji sadrži odredbu protiv primjene sustava za prepoznavanje emocija i kategorizaciju – okvira koji ne moraju nužno identificirati pojedinca, ali tvrde da razumiju što osjeća ili da ga mogu kategorizirati u smislu spola, etničke pripadnosti i raznih drugih ekonomskih i društvenih označitelja.

Istraživači tvrde da je ova klauzula besmislena, budući da GDPR već obvezuje dobavljače takvih sustava da korisnicima pruže jasne informacije o korištenju takvih sustava, tako da se korisnici mogu isključiti (što može uključivati ​​nekorištenje online usluge ili neunošenje područje gdje se najavljuje postojanje takvih sustava).

Što je još važnije, rad tvrdi da ova klauzula legitimira a razotkrili tehnologiju, te nastavlja karakterizirati FACS-stilski sustavi za prepoznavanje emocija u svjetlu sramotne povijesti frenologije i drugih gotovo šamanističkih pristupa društvenoj kategorizaciji iz ranog industrijskog doba.

'Oni koji tvrde da otkrivaju emocije koriste previše pojednostavljene, upitne taksonomije; netočno pretpostaviti univerzalnost u različitim kulturama i kontekstima; i riskira da nas '[odvede] natrag u frenološku prošlost' analize karakternih osobina od struktura lica. Čini se da odredbe Zakona o prepoznavanju emocija i biometrijskoj kategorizaciji nisu dostatne za ublažavanje rizika.'

Preskroman prijedlog

Osim ovih, istraživači se bave drugim uočenim nedostacima u Zakonu o umjetnoj inteligenciji u pogledu regulacije deepfakeova, nedostatkom nadzora nad emisijama ugljika u sustavima umjetne inteligencije, udvostručavanjem regulatornog nadzora s drugim okvirima i neodgovarajućom definicijom pravnih subjekata koji se mogu kazneno goniti.

Pozivaju zakonodavce i građanske aktiviste da poduzmu mjere kako bi riješili uočene probleme, i nadalje napominju da je čak i njihova opsežna dekonstrukcija nacrta propisa morala izostaviti mnoga druga područja koja izazivaju zabrinutost, zbog nedostatka prostora.

Unatoč tome, list pozdravlja avangardni pokušaj Zakona da uvede sustav horizontalne regulacije sustava umjetne inteligencije, navodeći njegove mnoge 'osjetljive elemente', poput stvaranja hijerarhije razina procjene rizika, obveze uvođenja zabrana i predlaganja javne baze podataka sustava kojima bi dobavljači trebali pridonijeti kako bi stekli europski legitimitet, iako imajući na umu pravne nedoumice koje će ovaj kasniji zahtjev vjerojatno dovesti do izražaja.