Liity verkostomme!

Asetus

EU ottaa käyttöön ensimmäiset tekoälysäännöt

mm
Päivitetty on
EU:n tekoälysäännöt

Huhtikuun 21. päivänä Euroopan unioni julkistaa ensimmäisen tekoälyn käyttöä säätelevän sääntelykehyksensä. Uudet määräykset kieltävät kokonaan "korkean riskin" koneoppimisjärjestelmät ja ottavat käyttöön vähimmäisstandardit muille koneoppimistekniikoille, joissa rikkomuksista määrätään 20 miljoonan euron tai 4 prosentin sakot yrityksen liikevaihdosta.

Mietintöluonnos uudesta laista, saatu Politico pyrkii edistämään tekoälyjärjestelmien innovointia ja kehitystä EU:n talouden ja yhteiskunnan yleiseksi hyödyksi sellaisilla aloilla kuin valmistus, energiatehokkuuden parantaminen ja ilmastonmuutoksen mallinnus; mutta se kieltäisi koneoppimisen käytön opintopistejärjestelmissä, automatisoidun rikosoikeudellisten tuomioiden arvioinnin ja soveltuvuuden arvioinnin sosiaaliturvaetuuksiin ja turvapaikka- tai viisumihakemuksiin muiden myöhemmin paljastettavien kieltojen ohella.

Luonnoksessa se todetaan nimenomaisesti Kiinalainen Yksityishenkilöiden ja yritysten sosiaaliset pisteytysjärjestelmät ovat Euroopan unionin arvojen vastaisia, ja ne kielletään asetuksen nojalla, samoin kuin tekoälyllä toimivat "massavalvonta"-tekniikat.

Sääntelyn valvonta

Sen jälkeen nimittäminen Tekoälyä käsittelevän korkean tason asiantuntijaryhmän istunnossa maaliskuussa 2021 EU aikoo myös perustaa uuden Euroopan tekoälylautakunnan, jossa jokainen jäsenvaltio on edustettuna sekä edustaja Euroopan komissiosta ja EU:n tietosuojaviranomaisesta.

Ehkä laajin ja mahdollisesti kiistanalaisin määräys luonnoksessa on se, että se kieltää järjestelmät, jotka aiheuttavat vahinkoa EU:n väestölle "manipuloimalla heidän käyttäytymistään, mielipiteitään tai päätöksiään", joihin kuuluisi todennäköisesti monia teknologioita, jotka vaikuttavat kaupallisen ja poliittisen markkinoinnin analysointiin.

Säännöksissä tehdään poikkeuksia vakavan rikollisuuden torjunnassa, mikä mahdollistaa kasvojentunnistusjärjestelmien määrätyn käytön laajuuden ja käytön keston rajoissa.

Kuten laaja pyyhkäisy GDPR:n mukaan nämä uudet määräykset voivat olla riittävän yleisiä herättämään "jäähdytysvaikutuksen" alueilla, joilla ei ole annettu tiukkoja ohjeita tekoälyn käytölle, jolloin yritykset voivat altistua, jos niiden koneoppimisen käyttö putoaa mahdolliselle harmaalle alueelle. sääntöjen puitteissa.

Bias EU:n uusien tekoälysääntöjen mukaisesti

Ylivoimaisesti suurin haaste ja mahdollinen oikeudellinen suo on kuitenkin asetusluonnoksen säännös, jonka mukaan tietoaineistot eivät "sisällytä tahallisia tai tahattomia harhoja", jotka voivat helpottaa syrjintää.

Tietojen harha on yksi haastavimmista näkökohdista koneoppimisjärjestelmien kehittämisessä – vaikeasti todistettavissa, vaikeasti käsiteltävä ja syvästi sidottu tiedonkeruuelinten keskeisiin kulttuureihin. Ongelma asettaa yksityiset ja valtion tutkimuslaitokset yhä enemmän ristivirtaan erillisten ryhmien tarkan edustamisen tarpeen (käytännössä laskennallisen matematiikan ja empiirisen tilastollisen analyysin perustavoite) ja mahdollisuuksien välillä edistää muun muassa rotuprofilointia ja kulttuurista demonisointia. .

Siksi on todennäköistä, että EU:n ulkopuoliset markkinat toivovat, että uusi asetus tarjoaa ainakin joitain erityisiä ohjeita ja joukon sovellettavia määritelmiä tässä suhteessa.

Ulkoinen vastustus EU:n tekoälyasetukselle

Uudella asetuksella on todennäköisesti syvä vaikutus koneoppimisen käytön oikeudellisiin seurauksiin julkisen datan analysoinnissa – sekä sellaisiin tietoihin, joita on edelleen mahdollista poimia verkon käyttäjiltä seurannan jälkeisessä iässä. ohjataan sisään omena, Firefox ja (a vähäisemmässä määrin), kromi.

Toimivalta voi olla tarpeen määritellä selkeästi, esimerkiksi tapauksissa, joissa FAANG-jättiläiset keräävät käyttäjätietoja GDPR:n mukaisesti, mutta käsittelevät niitä koneoppimisjärjestelmien kautta Euroopan unionin ulkopuolella. Ei ole selvää, voitaisiinko tällaisten järjestelmien kautta johdettuja algoritmeja soveltaa alustoihin EU:n sisällä, ja vielä vähemmän selvää, kuinka tällainen sovellus voitaisiin mahdollisesti todistaa.

Jos tekoälyä käytetään vankeuspäätösten ja tuomioiden antamiseen, a kasvava trendi Yhdysvalloissa, Yhdistyneen kuningaskunnan oma satunnainen kokeiluja tällä alalla olisi kuulunut uusien asetusten piiriin, jos maa ei olisi eronnut Euroopan unionista.

Vuonna 2020 Valkoisen talon muistio luonnos tekoälyn sääntelystä totesi, että amerikkalaiset vaativat tekoälyn vähäistä sääntelyä. "Liittovaltion virastojen on vältettävä säänteleviä tai ei-säänteleviä toimia, jotka turhaan haittaavat tekoälyn innovointia ja kasvua". Tämä asenne näyttää todennäköisesti selviytyvän Trumpin hallinnosta, jonka alaisuudessa muistio julkaistiin, mutta heijastelee pikemminkin Yhdysvaltojen ja EU:n välistä kulumista uuden asetuksen seurauksena.

Samoin UK AI Councilin "AI Roadmap" ilmaisee suurta innostusta tekoälyn käyttöönoton taloudellisista hyödyistä, mutta on yleisesti huolissaan siitä, ettei uusien säännösten anneta haitata tätä edistystä.

Ensimmäinen todellinen laki tekoälylle

EU:n sitoutuminen tekoälyä koskevaan oikeudelliseen kantaan on innovatiivinen. Viimeiset kymmenen vuotta ovat olleet ominaisia ​​a lumimyrsky valkoisista kirjoista ja alustavista komiteoiden havainnoista ja suosituksista hallituksilta eri puolilla maailmaa, keskittyen tekoälyn etiikkaan, ja varsinaisia ​​lakeja on hyväksytty vain vähän.

AI EETTISET PAPERIT

Eettisten tekoälyohjeiden myöntäjien maantieteellinen jakautuminen julkaistujen asiakirjojen lukumäärän mukaan tutkimuksessa vuodesta 2019. Eniten eettisiä ohjeita julkaistaan ​​Yhdysvalloissa ja Euroopan unionin sisällä, seuraavina Iso-Britannia ja Japani. Kanada, Islanti, Norja, Yhdistyneet arabiemiirikunnat, Intia, Singapore, Etelä-Korea ja Australia ovat edustettuina kullakin yhdellä asiakirjalla. G1-maiden jäsenvaltiot korostetaan erikseen, koska ne ovat osallistuneet erityiseen G7-julkilausumaan. Lähde: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf

Kirjallisuutta

Kansalliset tekoälypolitiikat ja -strategiat (OECD)