stub UE wprowadzi pierwsze regulacje dotyczące sztucznej inteligencji – Unite.AI
Kontakt z nami

Regulacja

UE wprowadzi pierwsze regulacje dotyczące sztucznej inteligencji

mm
Zaktualizowano on
Przepisy UE dotyczące sztucznej inteligencji

21 kwietnia Unia Europejska ogłosi swoje pierwsze ramy regulacyjne regulujące wykorzystanie sztucznej inteligencji. Nowe przepisy całkowicie zakażą systemów uczenia maszynowego „wysokiego ryzyka” i wprowadzą minimalne standardy dla innych technologii uczenia maszynowego, nakładając kary w wysokości 20 milionów euro, czyli 4% obrotu firmy, za naruszenia.

Projekt raportu nowej ustawy, uzyskane przez Politico, dążyłaby do wspierania innowacji i rozwoju systemów sztucznej inteligencji z ogólną korzyścią dla gospodarki i społeczeństwa UE w takich obszarach jak produkcja, poprawa efektywności energetycznej i modelowanie zmiany klimatu; zakazałaby jednak stosowania uczenia maszynowego w systemach scoringowych zdolności kredytowych, automatycznej oceny wyroków karnych i oceny przydatności do świadczeń zabezpieczenia społecznego oraz wniosków o azyl lub wizę, a także innych zakazów, które zostaną ujawnione później.

Projekt wyraźnie to stwierdza Chiński styl systemy scoringu społecznego dla osób fizycznych i firm są sprzeczne z wartościami Unii Europejskiej i zostaną zakazane na mocy rozporządzenia, podobnie jak technologie „masowego nadzoru” oparte na sztucznej inteligencji.

Nadzór regulacyjny

Po nim spotkanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji w marcu 2021 r. UE zamierza również powołać nową Europejską Radę ds. Sztucznej Inteligencji, w której skład wejdzie każde państwo członkowskie, a także przedstawiciel Komisji Europejskiej i unijnego organu ochrony danych.

Być może najbardziej radykalnym i potencjalnie kontrowersyjnym edyktem zawartym w projekcie jest zakaz systemów, które wyrządzają krzywdę obywatelom UE poprzez „manipulowanie ich zachowaniem, opiniami lub decyzjami”, co prawdopodobnie obejmowałoby wiele technologii wspomagających analizę marketingu komercyjnego i politycznego.

Rozporządzenia wprowadzą wyjątki w zakresie zwalczania poważnych przestępstw, zezwalając na wymagane rozmieszczenie systemów rozpoznawania twarzy, w granicach zakresu i czasu ich stosowania.

Tak jak w przypadku szeroki zakres RODO wydaje się, że te nowe regulacje mogą być na tyle ogólne, że wywołają „efekt mrożący” w obszarach, w których nie przewidziano ścisłych wytycznych dotyczących stosowania sztucznej inteligencji, a korporacje ryzykują narażenie, gdy ich wykorzystanie uczenia maszynowego wchodzi w potencjalną szarą strefę w ramach przepisów.

Stronniczość w świetle nowych przepisów UE dotyczących sztucznej inteligencji

Jednak zdecydowanie największym wyzwaniem i możliwym bagnem prawnym jest postanowienie projektu rozporządzenia, zgodnie z którym zbiory danych nie „zawierają żadnych zamierzonych lub niezamierzonych błędów uprzedzeń”, które mogłyby ułatwiać dyskryminację.

Stronniczość danych to jeden z najtrudniejszych aspektów rozwoju systemów uczenia maszynowego – trudny do udowodnienia, trudny do rozwiązania i głęboko powiązany z centralną kulturą organów gromadzących dane. Problem w coraz większym stopniu stawia prywatne i państwowe instytucje badawcze na skrzyżowaniu między potrzebą dokładnego reprezentowania odrębnych grup (praktycznie podstawowy cel matematyki obliczeniowej i empirycznej analizy statystycznej) a możliwością szerzenia, między innymi, profilowania rasowego i demonizacji kulturowej .

Jest zatem prawdopodobne, że rynki pozaunijne będą miały nadzieję, że nowe rozporządzenie zapewni przynajmniej pewne konkretne obszary wytycznych oraz szereg mających zastosowanie definicji w tym zakresie.

Zewnętrzny opór wobec przepisów UE dotyczących sztucznej inteligencji

Nowe rozporządzenie prawdopodobnie będzie miało głęboki wpływ na konsekwencje prawne wykorzystania uczenia maszynowego do analizowania danych udostępnianych publicznie, a także na takie dane, które nadal będzie można wydobyć od użytkowników sieci w epoce po śledzeniu, która jest obecnie wprowadzany przez Apple, Firefox i (do A w mniejszym stopniu), Chrom.

Może zaistnieć potrzeba jasnego określenia jurysdykcji, na przykład w przypadkach, gdy giganci FAANG gromadzą dane użytkowników zgodnie z RODO, ale przetwarzają je za pomocą systemów uczenia maszynowego poza Unią Europejską. Nie jest jasne, czy algorytmy wygenerowane za pomocą takich systemów można zastosować na platformach w UE, a jeszcze mniej jasne, w jaki sposób można by udowodnić takie zastosowanie.

W przypadku wykorzystania sztucznej inteligencji do podejmowania decyzji w sprawie pozbawienia wolności i wydawania wyroków: rosnący trend w Stanach Zjednoczonych, okazjonalnie w Wielkiej Brytanii eksperymenty w tym sektorze zostałyby objęte nowymi przepisami, gdyby kraj ten nie opuścił Unii Europejskiej.

W 2020 r. Biały Dom projekt memorandum w sprawie regulacji AI przedstawił amerykański argument za niskim poziomem regulacji AI, stwierdzając to „Agencje federalne muszą unikać działań regulacyjnych lub pozaregulacyjnych, które niepotrzebnie utrudniają innowacje i rozwój sztucznej inteligencji”. Prawdopodobnie wydaje się, że takie podejście przetrwa administrację Trumpa, za czasów której opublikowano memorandum, ale raczej odzwierciedla nadchodzące zacieśnienie stosunków między USA a UE w następstwie nowego rozporządzenia.

Podobnie brytyjska Rada ds. AI „Plan działania sztucznej inteligencji” wyraża wielki entuzjazm dla korzyści gospodarczych wynikających z przyjęcia sztucznej inteligencji, lecz wyraża ogólną obawę, że nowe regulacje nie mogą utrudniać tego postępu.

Pierwsze prawdziwe prawo dotyczące sztucznej inteligencji

Zaangażowanie UE w przyjęcie stanowiska prawnego w sprawie sztucznej inteligencji jest innowacyjne. Ostatnie dziesięć lat charakteryzowało się m.in zamieć białych ksiąg oraz wstępnych ustaleń komisji i zaleceń rządów na całym świecie, koncentrujących się na etyce sztucznej inteligencji, przy niewielkiej liczbie uchwalonych przepisów.

DOKUMENTY ETYCZNE AI

Rozkład geograficzny wydawców wytycznych etycznych dotyczących sztucznej inteligencji według liczby opublikowanych dokumentów, w badaniu z 2019 r. Najwięcej wytycznych etycznych wydano w Stanach Zjednoczonych oraz w Unii Europejskiej, a następnie w Wielkiej Brytanii i Japonii. Kanada, Islandia, Norwegia, Zjednoczone Emiraty Arabskie, Indie, Singapur, Korea Południowa i Australia są reprezentowane po 1 dokumencie. Państwa członkowskie krajów G7, które przyczyniły się do powstania konkretnego oświadczenia G7, zostały wyróżnione osobno. Źródło: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf

Inne dokumenty

Krajowe polityki i strategie dotyczące sztucznej inteligencji (OECD)