Asetus
EU:n tekoälylakiluonnoksen epäonnistumiset

Euroopan unionin tekoälylakiluonnoksen uusi oikeudellinen kritiikki kohdistuu laajaan kritiikkiin ehdotettuja säännöksiä kohtaan. julkaistiin huhtikuussa, jossa todetaan, että suuri osa asiakirjasta on "koottu yhteen" tuskin sovellettavasta 1980-luvun kuluttajansuojasääntelystä; että se itse asiassa edistää sääntelyn purkamista Euroopassa sen sijaan, että saattaisi alan johdonmukaisen sääntelyn piiriin; ja – lukuisten muiden kritiikkikohtien ohella – että ehdotukset kuvaavat tulevaa tekoälyn sääntelykehystä, jolla on "vähän järkeä ja vaikutusta".
oikeutettu EU:n tekoälylakiluonnoksen mystifioiminen, The esipainettu on UCL Londonin ja Nijmegenin Radboudin yliopiston tutkijoiden yhteistyö.
Paperi lisää kasvavaa määrää kielteisiä mielipiteitä säätelykehyksen ehdotetusta täytäntöönpanosta (eikä paljon ihaillusta tarkoituksesta), mukaan lukien väite huhtikuussa yhden asetusluonnoksen kirjoittajan mielestä ehdotetut ohjeet ovat "pensseleitä, lyhytnäköisiä ja tarkoituksella epämääräisiä", mikä luonnehti Euroopan komission asiakirjaa "valeellisen etiikan" kannattajaksi.
Manipulatiiviset AI-järjestelmät
Uudessa artikkelissa väitetään, että tekoälylain ehdottamia "manipuloivien järjestelmien" rajoituksia haittaa epämääräinen ja jopa ristiriitainen "vahingon" määritelmä, ja todetaan, että "kyynikko saattaisi ajatella, että komissio on kiinnostuneempi kieltojen retorisesta arvosta kuin käytännön vaikutuksesta".
- asetusluonnokset hahmottele kaksi oletettua kiellettyä käytäntöä:
a) sellaisen tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, joka käyttää alitajuisia tekniikoita henkilön tajunnan ulkopuolella vääristääkseen olennaisesti henkilön käyttäytymistä tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa tälle henkilölle tai toiselle henkilölle fyysistä tai henkistä haittaa;
b) sellaisen tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, joka hyödyntää tietyn henkilöryhmän iän, fyysisen tai henkisen vammansa vuoksi haavoittuvuuksia vääristääkseen olennaisesti henkilön käyttäytymistä liittyvät kyseiseen ryhmään tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa tälle henkilölle tai toiselle henkilölle fyysistä tai henkistä haittaa;
Tutkijat väittävät, että nämä rajoitukset eivät koske sitä, onnistuvatko tekoälytarjoajan palvelut tai ohjelmistot edistämään omia tavoitteitaan, vaan ainoastaan sitä, kärsiikö loppukäyttäjä prosessissa "vahinkoa". He lisäävät, että luonnoksen haitan määritelmä rajoittuu kohtalokkaasti yksittäisiin käyttäjiin sen sijaan, että se koskisi sellaista kollektiivista tai yhteiskunnallista haittaa, jota voidaan kohtuudella päätellä useista viime vuosien tekoälyyn liittyvistä kiistoista, kuten Cambridge Analytican fiaskosta.
Artikkelissa todetaan, että ”tosielämässä vahinko voi kasaantua ilman, että yksikään tapahtuma ylittää vakavuuden kynnyksen, minkä vuoksi sitä on vaikea todistaa”.
Haitalliset tekoälyjärjestelmät sallittu, mutta ei EU:n kulutukseen
Tekoälylaki ehdottaa lainvalvontaviranomaisten kieltoa käyttää reaaliaikaisia biometrisiä järjestelmiä julkisissa tiloissa. Vaikka julkisuudessa on esitetty jonkin verran epäilyksiä ehdotusten tekemistä poikkeuksista terrorismin torjunnan, lapsikaupan ja eurooppalaisen pidätysmääräyksen täytäntöönpanon osalta, tutkijat huomauttavat myös, ettei mikään estäisi toimittajia myymästä säädösten vastaisia biometrisiä järjestelmiä sortaville hallinnoille.
Lehti huomauttaa, että tämä on jo historiallinen käytäntö, kuten Amnesty Internationalin 2020-raportti paljasti.
Siinä todetaan lisäksi, että tekoälylain määritelmä "reaaliaikaisesta" biometrisestä järjestelmästä on mielivaltainen, eikä se sisällä offline-analyysijärjestelmiä, kuten mielenosoitusten videomateriaalin myöhempää käsittelyä.
Lisäksi on todettu, että ehdotukset eivät tarjoa mekanismia biometristen järjestelmien rajoittamiseksi. emme lainvalvontaan liittyvät asiat, jotka sen sijaan on laiskasti siirretty GDPR:n alaisuuteen; ja että GDPR itsessään "asettaa vaatimuksen jokaiselle skannatulle henkilölle korkealaatuisesta, yksilöllisestä suostumuksesta, jota on käytännössä mahdotonta täyttää".
Myös tekoälylain tämän pykälän sanamuoto on saanut kritiikkiä tutkijoilta. Luonnoksessa määrätään, että biometristen järjestelmien käyttöönottoon toimivaltaisten viranomaisten "yksilölliseen käyttöön" vaaditaan ennakkolupa – mutta siinä ei selvennetä, mitä "yksilöllinen käyttö" tässä yhteydessä tarkoittaa. Asiakirjassa todetaan, että kiistanalaisia etsintälupia voidaan temaattistaja liittyvät laajoihin organisaatioihin, tarkoituksiin ja paikkoihin.
Asetusluonnoksissa ei myöskään säädetä avoimuusmekanismista myönnettyjen lupien lukumäärälle ja tyypeille, mikä tekee julkisesta valvonnasta ongelmallisen.
Sääntelyn ulkoistaminen "yhdenmukaistetuille standardeille"
Tutkimuksessa todetaan, että tekoälylain tärkeimpiä kokonaisuuksia ei itse asiassa mainita kertaakaan asetusluonnoksessa: CEN (Euroopan standardointikomitea) ja CENELEC (European Committee for Electrotechnical Standardisation) – kaksi kolmesta eurooppalaisesta standardointijärjestöstä (ESO). Euroopan komissio voi valtuuttaa muotoilemaan yhdenmukaistettuja standardeja, jotka monissa tapauksissa säilyisivät sääntelykehyksenä tietyntyyppisille tekoälypalveluille ja niiden käyttöönotolle.
Tämä tarkoittaa käytännössä sitä, että tekoälyn tuottajat voivat valita, noudattavatko itse asiassa kilpailevia standardeja täydentävien määräysten sijaan sen sijaan, että he täyttäisivät tekoälylain sisältämät olennaiset vaatimukset. Tämä antaa palveluntarjoajille mahdollisuuden tulkita ehdotettuja säännöksiä löyhemmin niiden tullessa voimaan vuonna 2024-5.
Tutkimuksen tutkijat ovat myös sitä mieltä, että vuosien varrella standardointielinten keskuudessa tapahtunut teollisuuden lobbaus todennäköisesti määrittelee nämä "keskeiset standardit" huomattavasti uudelleen, ja ehdottavat, että "ihanteellisten" säännösten tulisi alkaa korkeammalta eettiseltä tasolta ja lainsäädännölliseltä selkeydeltä, jo pelkästään tämän väistämättömän poistumaprosessin huomioon ottamiseksi.
Tunteidentunnistusjärjestelmien virheellisyyden laillistaminen
Tekoälylakiin sisältyy säännös tunteiden tunnistamis- ja luokittelujärjestelmien käyttöönotosta – kehyksiä, jotka eivät välttämättä tunnista yksilöä, mutta joko väittävät ymmärtävänsä, mitä he tuntevat, tai pystyvänsä luokittelemaan heidät sukupuolen, etnisen taustan tai useiden muiden perusteella. taloudelliset ja sosiaaliset merkitsijät.
Tutkijat väittävät, että tämä lauseke on turha, koska GDPR velvoittaa jo tällaisten järjestelmien toimittajat antamaan käyttäjille selkeää tietoa tällaisten järjestelmien käytöstä, jotta käyttäjät voivat kieltäytyä käytöstä (mikä voi tarkoittaa, että verkkopalvelua ei käytetä tai kirjautua sisään). alue, jolla tällaisia järjestelmiä on ilmoitettu olevan olemassa).
Vielä tärkeämpää on, että paperi väittää, että tämä lauseke oikeuttaa a debunked teknologiaa ja jatkaa luonnehdintaa FACS-tyylisiä tunteiden tunnistusjärjestelmiä frenologian häpeällisen historian ja muiden lähes shamanististen lähestymistapojen valossa sosiaaliseen luokitteluun varhaisesta teollisesta ajasta.
"Ne, jotka väittävät havaitsevansa tunteita, käyttävät liian yksinkertaistettuja, kyseenalaisia taksonomioita; olettaa virheellisesti universaalisuutta kulttuurien ja kontekstien välillä; ja ottaa riskin "[vie] meidät takaisin frenologiseen menneisyyteen" analysoimalla luonteenpiirteitä kasvojen rakenteistaLain tunteiden tunnistamista ja biometristä luokittelua koskevat säännökset näyttävät riittämättömiltä riskien lieventämiseksi.
Liian vaatimaton ehdotus
Näiden lisäksi tutkijat käsittelevät muita tekoälylain havaittuja puutteita, jotka liittyvät syväväärennösten sääntelyyn, tekoälyjärjestelmien hiilidioksidipäästöjen valvonnan puutteeseen, säännösten valvonnan päällekkäisyyteen muiden kehysten kanssa sekä syytteeseen asettavien oikeushenkilöiden puutteelliseen määritelmään.
He kehottavat lainsäätäjiä ja kansalaisaktivisteja ryhtymään toimiin havaittujen ongelmien korjaamiseksi, ja huomauttavat lisäksi, että niiden laajassa purkamisessa asetusluonnoksista on tilanpuutteen vuoksi jätetty pois monia muita huolenaiheita.
Siitä huolimatta asiakirjassa ylistetään lain uraauurtavaa pyrkimystä ottaa käyttöön tekoälyjärjestelmien horisontaalinen sääntelyjärjestelmä ja mainitaan sen monet "järkevät elementit", kuten riskinarviointitasojen hierarkian luominen, sitoumus kieltojen käyttöönottoon ja ehdotus julkisesta tietokannasta järjestelmistä, joihin toimittajien olisi osallistuttava eurooppalaisen legitimiteetin saavuttamiseksi, vaikka siinä todetaankin oikeudelliset ongelmat, joita tämä jälkimmäinen vaatimus todennäköisesti herättää.