Regulering
Svigtene i Udkastet til EU’s Kunstig Intelligenslov

En ny juridisk kritik af EU’s udkast til ‘Kunstig Intelligenslov’ retter en lang række kritikker mod de foreslåede reguleringsforslag frigivet i april, og konkluderer, at meget af dokumentet er ‘syet sammen’ af kun dårligt anvendelige forbrugerreguleringslove fra 1980’erne; at det faktisk fremmer en dereguleret kunstig intelligens-miljø i Europa, snarere end at bringe sektoren under sammenhængende regulering; og – blandt en række andre kritikker – at forslagene tegner et fremtidigt regulativt rammeværk for kunstig intelligens, som har ‘meget lidt mening og impact’.
Titlen Demystificering af Udkastet til EU’s Kunstig Intelligenslov er en samarbejdsprojekt mellem forskere fra UCL London og Radboud University i Nijmegen.
Artiklen tilføjer til en voksende mængde negative meninger om den foreslåede implementering (snarere end den meget beundrede intention) af et regulativt rammeværk for kunstig intelligens, herunder påstanden i april af en af udkastets egne bidragsytere, at de foreslåede retningslinjer er ‘lunkne, kortsigtede og bevidst vage’, hvilket karakteriserer Europa-Kommissionens dokument som en forkæmper for ‘falsk etik’.
Manipulative Kunstig Intelligens Systemer
Den nye artikel påstår, at Kunstig Intelligenslovens foreslåede begrænsninger for ‘manipulative systemer’ er handicappet af en vag og endda modstridende definition af ‘skade’, og kommenterer, at ‘[e]n cyniker kunne føle, at Kommissionen er mere interesseret i forbudens retoriske værdi end praktisk effekt’.
Den udkast til reguleringsforslag omfatter to påståede forbudte praksisser:
(a) det at bringe en kunstig intelligens på markedet, sætte det i drift eller bruge det, der udnytter subliminale teknikker ud over en persons bevidsthed for at materielt forvrænge en persons adfærd på en måde, der kan forårsage eller sandsynligvis kan forårsage fysisk eller psykisk skade for personen eller en anden person;
(b) det at bringe en kunstig intelligens på markedet, sætte det i drift eller bruge det, der udnytter en bestemt gruppes sårbarhed på grund af deres alder, fysisk eller psykisk handicap, for at materielt forvrænge en persons adfærd i en måde, der kan forårsage eller sandsynligvis kan forårsage fysisk eller psykisk skade for personen eller en anden person;
Forskerne argumenterer for, at disse begrænsninger ikke omhandler, om en kunstig intelligens-udbyders tjenester eller software er succesfulde i at fremme deres egne mål, men kun om slutbrugeren lider ‘skade’ i processen. De tilføjer, at udkastets definition af skade er dødeligt begrænset til enkelte brugere, snarere end den slags kollektive eller samfundsmæssige skade, der kan rimeligt sluttes fra en række kunstig intelligens-baserede kontroverser i de seneste år, såsom Cambridge Analytica-skandalen.
Artiklen observerer, at ‘I virkeligheden kan skade akkumuleres uden, at en enkelt begivenhed udløser en alvorlighedstræskel, hvilket gør det svært at bevise’.
Skadelige Kunstig Intelligens Systemer Tilladt, men Ikke til EU’s Forbrug
Kunstig Intelligensloven foreslår at implementere et forbud mod ‘real-time’ biometriske systemer i offentlige rum af lovmyndigheder. Selv om der er offentlig skepsis rettet mod undtagelserne i forslagene for anti-terrorisme, børnehandel og forfølgelse af en europæisk arrestordre, bemærker forskerne også, at intet kan forhindre leverandører i at sælge biometriske systemer, der strider mod love, til undertrykkende regimer.
Artiklen observerer, at dette allerede er historisk praksis, som afsløret i en rapport fra Amnesty International i 2020.
Den fastslår yderligere, at Kunstig Intelligenslovens specifikation af ‘real-time’ biometriske systemer er arbitrær og udelukker offline-analytiske systemer, såsom senere behandling af videooptagelser fra protestbegivenheder.
Desuden bemærkes det, at forslagene ikke tilbyder nogen mekanisme til at begrænse biometriske systemer, der ikke er relateret til lovmyndigheder, som i stedet er dovene henvisninger til GDPR; og at GDPR selv ‘stiller et krav om højkvalitets-, individuel samtykke for hver scannet person, som effektivt er umuligt at opfylde’.
Formuleringen af denne del af Kunstig Intelligensloven kommer også under kritik fra forskerne. Udkastet fastslår, at forhåndsautorisation vil være nødvendig for udrulningen af biometriske systemer til kompetente myndigheders ‘individuelle brug’ af sådanne systemer – men klargør ikke, hvad ‘individuel brug’ betyder i denne sammenhæng. Artiklen bemærker, at kontroversielle arrestordrer kan være tematiske og relaterer til brede organisationer, formål og steder.
Desuden fastslår udkastet til reguleringsforslag ikke en transparensmechanisme for antallet og typen af udstedte autorisationer, hvilket gør offentlig gennemgang problematisk.
Udlicitering af Regulering til ‘Harmoniserede Standarder’
Forskningen fastslår, at de vigtigste enheder i Kunstig Intelligensloven faktisk ikke nævnes en enkelt gang i udkastet til reguleringsforslag: CEN (Europæisk Standardiseringskomité) og CENELEC (Europæisk Standardiseringskomité for Elektroteknik) – to af tre europæiske standardiseringsorganisationer (ESO’er), som Europa-Kommissionen kan pålægge at udarbejde harmoniserede standarder, som i mange tilfælde vil være de styrende regulative rammer for bestemte typer kunstig intelligens-tjenester og -udrulninger.
Dette betyder effektivt, at kunstig intelligens-producenter kan vælge at følge standarderne for, hvad der i virkeligheden er konkurrerende snarere end komplementære reguleringsforslag, snarere end at opfylde de væsentlige krav, der er fastsat i Kunstig Intelligensloven. Dette giver mulighed for, at leverandører kan tolke de foreslåede reguleringsforslag mere løst, når de træder i kraft i 2024-5.
Artiklens forskere mener også, at de indgribende år af industrielt lobbyarbejde blandt standardiseringsorganisationer sandsynligvis vil omdefinere disse ‘væsentlige standarder’ betydeligt, og foreslår, at ‘ideelle’ reguleringsforslag bør starte på et højere etisk niveau og lovgivningsklarhed, hvis blot for at tage højde for denne uundgåelige proces af udtynding.
Gyldiggørelse af Falskheden om Følelseserkendelsessystemer
Kunstig Intelligensloven indeholder bestemmelser mod udrulningen af følelseserkendelse og kategoriseringssystemer – rammer, der måske ikke nødvendigvis identificerer en enkelt person, men enten påstår at forstå, hvad de føler, eller kan kategorisere dem i forhold til køn, etnicitet og andre økonomiske og sociale tegn.
Forskerne argumenterer for, at denne klausul er meningsløs, da GDPR allerede forpligter udbyderne af sådanne systemer til at give brugerne tydelig information om brugen af sådanne systemer, så brugerne kan fravælge (hvad kan indebære ikke at bruge en online-tjeneste eller ikke at gå ind i et område, hvor sådanne systemer er annonceret til at eksistere).
Vigtigere er, at artiklen fastslår, at denne klausul gyldiggør en afvist teknologi og karakteriserer FACS-lignende følelseserkendelsessystemer i lyset af den skammelige historie om frenologi og andre næsten-shamanistiske tilgange til social kategorisering fra den tidlige industrielle æra.
‘De, der påstår at kunne detektere følelser, bruger forenklede, tvivlsomme taksonomier; antager forkert universalitet på tværs af kulturer og sammenhænge; og risikerer at ‘[føre] os tilbage til frenologiens fortid’ af at analysere karaktertræk fra ansigtsstrukturer. Kunstig Intelligenslovens bestemmelser om følelseserkendelse og biometrisk kategorisering synes utilstrækkelige til at mindske risikoen.’
En For Beskeden Forslag
Ud over disse, behandler forskerne andre formodede mangler i Kunstig Intelligensloven i forhold til regulering af deepfakes, mangel på tilsyn for kulstofemissioner fra kunstig intelligens-systemer, duplication af regulativt tilsyn med andre rammer, og utilstrækkelig definition af strafbare juridiske enheder.
De opfordrer lovgivere og civile aktivister til at tage skridt for at rette de problemer, der er identificeret, og bemærker yderligere, at selv deres omfattende dekonstruktion af udkastet til reguleringsforslag har måttet udelade mange andre områder af bekymring på grund af manglende plads.
Alligevel rosmerer artiklen Kunstig Intelligenslovens pionerforsøg på at introducere et system for horisontal regulering af kunstig intelligens-systemer, og citerer dens mange ‘sensible elementer’, såsom oprettelsen af en hierarki af risikovurderingsniveauer, forpligtelsen til at indføre forbud og forslaget om en offentlig database over systemer, som udbydere skal bidrage til for at opnå europæisk legitimitet, selv om det bemærkes, at dette sidste krav sandsynligvis vil medføre juridiske dilemmaer.












