Connect with us

Sääntely

EU:n luonnosluonnos tekoälylain virheistä

mm

Uusi oikeudellinen arvostelu Euroopan unionin luonnosluonnoksesta “AI Act” esittää laajan joukon kritiikkejä ehdotetuille säännöksille julkaistu huhtikuussa, ja päättää, että suurin osa asiakirjasta on “ompelemalla yhteen” 1980-luvun kuluttajansuojalainsäädännöstä, joka on vain osittain sovellettavissa; että se itse asiassa edistää sääntelemätöntä tekoäly-ympäristöä Euroopassa, sen sijaan, että se tuottaisi koherentin sääntelyn alalle; ja – joukon muiden kritiikin joukossa – että ehdotukset kartuttaisivat tulevaisuuden sääntelytekoälykehystä, jolla “on vähän järkeä ja vaikutusta”.

Nimeltään Demystifying the Draft EU Artificial Intelligence Act, pre-print on yhteistyö UCL Lontoon ja Radboud-yliopiston Nijmegenin tutkijoiden välillä.

Tutkimus lisää kasvavaan joukkoon kielteisiä mielipiteitä ehdotetun toteutuksen (ei niinkään hyväksytyn tarkoituksen) sääntelytekoälykehystä, mukaan lukien väite huhtikuussa yhden luonnosluonnoksen omista avustajista, että ehdotetut ohjeet ovat “laimeat, lyhytnäköiset ja tarkoituksella epämääräisiä”, jotka kuvailivat Euroopan komission asiakirjaa “väärän eettisyyden” puolustelijana.

Manipulaattoriset tekoälyjärjestelmät

Uusi tutkimus väittää, että AI Actin ehdotetut rajoitukset “manipulaattorisia järjestelmiä” ovat haitallisia epämääräisestä ja jopa ristiriitaisesta “haitan” määritelmästä, ja kommentoi, että “[a] synikko voi tuntea, että komissio on kiinnostuneempi kieltämisen retorisesta arvosta kuin käytännön vaikutuksesta”.

Luonnosluonnoksessa määritellään kaksi kiellettyä käytäntöä:

(a) tekoälyjärjestelmän asettaminen markkinoille, käyttöönotto tai käyttö, joka käyttää alitajuisia tekniikoita, jotka vaikuttavat henkilön tietoisuuden ulottumattomissa, jotta voidaan muuttaa henkilön käyttäytymistä olennaisesti ja aiheuttaa haittaa tai vaaraa hänelle tai toiselle henkilölle;

(b) tekoälyjärjestelmän asettaminen markkinoille, käyttöönotto tai käyttö, joka hyödyntää jonkin henkilöryhmän heikkouksia, kuten ikä, fyysinen tai henkinen vamma, jotta voidaan muuttaa henkilön käyttäytymistä olennaisesti ja aiheuttaa haittaa tai vaaraa hänelle tai toiselle henkilölle;

Tutkijat väittävät, että nämä rajoitukset eivät koske sitä, onko tekoälytoimittajan palvelut tai ohjelmisto onnistuneita edistämään omia tavoitteitaan, vaan ainoastaan siitä, kokeeko loppukäyttäjä “haittaa” prosessin aikana. He lisäävät, että luonnosluonnoksen määritelmä haitasta on kohtuuttoman rajoitettu yksittäisiin käyttäjiin, eikä se huomioi sellaista kollektiivista tai yhteiskunnallista haittaa, jota voidaan järkevästi johtaa useista viimeaikaisista tekoälyyn liittyvistä kiistakapuloista, kuten Cambridge Analytican tapauksesta.

Tutkimus toteaa, että “todellisessa elämässä haitta voi kertyä ilman, että yksittäinen tapahtuma laukaisee vakavuuden kynnyksen, joten on vaikea todistaa”.

Haitalliset tekoälyjärjestelmät sallittuja, mutta ei EU:n kuluttajille

AI Act ehdottaa “reaalikunnan” biometrisien järjestelmien käytön kieltoa julkisissa tiloissa lainvalvontaviranomaisten toimesta. Vaikka julkisessa mielipiteessä on suunnattu joitakin epäilyjä ehdotusten poikkeuksille terrorismia, lasten kauppaa ja eurooppalaisen pidätysmääräyksen toteuttamista vastaan, tutkijat huomauttavat, että mitään ei estä toimittajia myymästä vastaavia biometrisiä järjestelmiä sortovallan hallituksille.

Tutkimus toteaa, että tämä on jo historiallinen käytäntö, kuten paljastui vuonna 2020 Amnesty Internationalin raportissa.

Se toteaa myös, että AI Actin määritelmä “reaalikunnan” biometrisistä järjestelmistä on mielivaltainen ja sulkee pois offline-analyysijärjestelmät, kuten myöhemmän videomateriaalin käsittelyn mielenosoitustapahtumista.

Lisäksi huomautetaan, että ehdotukset eivät tarjoa mekanismia biometrisien järjestelmien rajoittamiseen, jotka eivät ole lainvalvontaviranomaisten käytössä, vaan ne jätetään laiskasti tarkasteltaviksi GDPR:lle; ja että GDPR itsessään “edellyttää korkealaatuista, yksilöllistä suostumusta kullekin skannatulle henkilölle, mikä on käytännössä mahdotonta täyttää”.

Tämän AI Actin osan sanamuoto saa tutkijoiden kritiikin. Luonnosluonnoksessa määritellään, että ennakkovaltuutus vaaditaan biometrisien järjestelmien käyttöönotolle viranomaisten “yksilölliseen käyttöön” näiden järjestelmien käytössä – mutta se ei selitä, mitä “yksilöllinen käyttö” tarkoittaa tässä yhteydessä. Tutkimus toteaa, että kiistanalaiset määräykset voivat olla teemoja, ja liittyä laajoihin organisaatioihin, tarkoituksiin ja paikkoihin.

Lisäksi luonnosluonnoksessa ei määritellä avoimuusmekanismia myönnetyjen valtuutusten määrälle ja tyypille, mikä tekee julkisen tarkastelun ongelmalliseksi.

Sääntelyn ulkoistaminen “harmonisoituun standardiin”

Tutkimus toteaa, että AI Actin tärkeimmät tahot eivät mainita luonnosluonnoksessa: CEN (Euroopan standardoimiskomitea) ja CENELEC (Euroopan sähkötekniikan standardoimiskomitea) – kaksi kolmesta Euroopan standardoimisjärjestöstä (ESO), joihin Euroopan komissio voi antaa tehtäväksi laatia harmonisoituja standardeja, jotka useissa tapauksissa muodostaisivat sääntelykehykset tietynlaisille tekoälypalveluille ja -käyttökohteille.

Tämä tarkoittaa käytännössä, että tekoälytuottajat voivat valita seuraamisen standardien mukaista sääntelyä, sen sijaan, että he noudattaisivat AI Actissa määriteltyjä olennaisia vaatimuksia. Tämä mahdollistaa toimijoiden tulkita ehdotettuja sääntöjä myöhemmin, kun ne tulevat voimaan vuosina 2024-5.

Tutkimuksen tutkijat ovat myös sitä mieltä, että väliin jäävien vuosien aikana teollisuuslobbaus standardointijärjestöjen keskuudessa todennäköisesti määrittelee uudelleen nämä “olennaiset standardit” merkittävästi, ja ehdottavat, että “ihannetapauksessa” säännökset tulisi aloittaa korkeammalta eettiseltä tasolta ja lainsäädännön selkeydestä, jotta voidaan ottaa huomioon tämä vääjäämätön prosessi.

Tunneentunnistusjärjestelmien virheellistäminen

AI Act sisältää säännökset tunneentunnistus- ja luokittelujärjestelmien käytön kieltoon – kehykset, jotka eivät välttämättä tunnista yksittäisiä henkilöitä, vaan väittävät ymmärtävänsä, mitä he tuntevat tai pystyvät luokittelemaan niitä sukupuolen, etnisen taustan ja muiden taloudellisten ja sosiaalisten merkintöjen perusteella.

Tutkijat väittävät, että tämä pykälä on turha, koska GDPR jo velvoittaa näiden järjestelmien tarjoajia antamaan käyttäjille selkeää tietoa näiden järjestelmien käytöstä, jotta käyttäjät voivat valita pois (joka voi vaatia, että he eivät käytä verkkopalvelua tai eivät astu alueelle, jossa tällaisia järjestelmiä ilmoitetaan olevan).

Lisäksi tutkimus väittää, että tämä pykälä legitimoi kumoamattoman teknologian, ja jatkaa FACS-tyyppisten tunneentunnistusjärjestelmien luonnehdintaa varhaisen teollisen ajan häpeämätön historian valossa, kuten frenologian ja muiden lähellä shamanistista lähestymistapaa sosiaalisen luokittelun suhteen.

“Ne, jotka väittävät havainnoivansa tunteita, käyttävät yksinkertaisia, kyseenalaisia luokituksia; olettavat virheellisesti yleisyyttä kulttuureissa ja konteksteissa; ja vaarantavat ‘[paluun] frenologian menneisyyteen’ luonteenpiirteiden analysointiin kasvonrakenteiden perusteella. AI Actin määräykset tunneentunnistuksesta ja biometrisestä luokittelusta vaikuttavat riittämättömiltä riskien torjumiseksi.’

Liian vaatimaton ehdotus

Lisäksi tutkijat käsittelevät muita AI Actin puutteita tekoälyjärjestelmien, syväväärennösten, hiilidioksidipäästöjen valvontarakenteen, sääntelyn yhdenmukaisuuden muiden kehyksien kanssa ja laitettavien oikeudellisten tahojen puutteellista määrittelyä.

He kehottavat lainsäätäjiä ja kansalaisaktivisteja ryhtymään toimiin ongelmien korjaamiseksi ja toteavat, että heidän laajan analyysinsä AI Actin luonnosluonnoksesta on jätetty monia muita huolenaiheita puoleen, aikapuutteen vuoksi.

Kuitenkin tutkimus ylistää AI Actin uraauurtavaa yritystä esitellä vaakasuoran sääntely tekoälyjärjestelmille, mainiten sen monia “järkeviä elementtejä”, kuten riskien arviointitasojen hierarkian luomisen, kieltämisen sitoutumisen ja julkisen tietokannan ehdottamisen tekoälyjärjestelmistä, johon toimittajien on osallistuttava saadakseen Euroopan-legitiimiyden, vaikka se huomauttaa myös oikeudelliset ongelmat, joita tämä vaatimus aiheuttaa.

Kirjailija tekoälystä, alan erikoisosaaja ihmiskuvien synteesissä. Entinen tutkimussisällön johtaja Metaphysic.ai:lla.
Henkilökohtainen sivu: martinanderson.ai
Ota yhteyttä: [email protected]