Regulacja
UE wprowadzi pierwsze regulacje dotyczące sztucznej inteligencji
21 kwietnia Unia Europejska ogłosi swoje pierwsze ramy regulacyjne regulujące wykorzystanie sztucznej inteligencji. Nowe przepisy całkowicie zakażą systemów uczenia maszynowego „wysokiego ryzyka” i wprowadzą minimalne standardy dla innych technologii uczenia maszynowego, nakładając kary w wysokości 20 milionów euro, czyli 4% obrotu firmy, za naruszenia.
Projekt raportu nowej ustawy, uzyskane przez Politico, dążyłaby do wspierania innowacji i rozwoju systemów sztucznej inteligencji z ogólną korzyścią dla gospodarki i społeczeństwa UE w takich obszarach jak produkcja, poprawa efektywności energetycznej i modelowanie zmiany klimatu; zakazałaby jednak stosowania uczenia maszynowego w systemach scoringowych zdolności kredytowych, automatycznej oceny wyroków karnych i oceny przydatności do świadczeń zabezpieczenia społecznego oraz wniosków o azyl lub wizę, a także innych zakazów, które zostaną ujawnione później.
Projekt wyraźnie to stwierdza Chiński styl systemy scoringu społecznego dla osób fizycznych i firm są sprzeczne z wartościami Unii Europejskiej i zostaną zakazane na mocy rozporządzenia, podobnie jak technologie „masowego nadzoru” oparte na sztucznej inteligencji.
Nadzór regulacyjny
Po nim spotkanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji w marcu 2021 r. UE zamierza również powołać nową Europejską Radę ds. Sztucznej Inteligencji, w której skład wejdzie każde państwo członkowskie, a także przedstawiciel Komisji Europejskiej i unijnego organu ochrony danych.
Być może najbardziej radykalnym i potencjalnie kontrowersyjnym edyktem zawartym w projekcie jest zakaz systemów, które wyrządzają krzywdę obywatelom UE poprzez „manipulowanie ich zachowaniem, opiniami lub decyzjami”, co prawdopodobnie obejmowałoby wiele technologii wspomagających analizę marketingu komercyjnego i politycznego.
Rozporządzenia wprowadzą wyjątki w zakresie zwalczania poważnych przestępstw, zezwalając na wymagane rozmieszczenie systemów rozpoznawania twarzy, w granicach zakresu i czasu ich stosowania.
Tak jak w przypadku szeroki zakres RODO wydaje się, że te nowe regulacje mogą być na tyle ogólne, że wywołają „efekt mrożący” w obszarach, w których nie przewidziano ścisłych wytycznych dotyczących stosowania sztucznej inteligencji, a korporacje ryzykują narażenie, gdy ich wykorzystanie uczenia maszynowego wchodzi w potencjalną szarą strefę w ramach przepisów.
Stronniczość w świetle nowych przepisów UE dotyczących sztucznej inteligencji
Jednak zdecydowanie największym wyzwaniem i możliwym bagnem prawnym jest postanowienie projektu rozporządzenia, zgodnie z którym zbiory danych nie „zawierają żadnych zamierzonych lub niezamierzonych błędów uprzedzeń”, które mogłyby ułatwiać dyskryminację.
Stronniczość danych to jeden z najtrudniejszych aspektów rozwoju systemów uczenia maszynowego – trudny do udowodnienia, trudny do rozwiązania i głęboko powiązany z centralną kulturą organów gromadzących dane. Problem w coraz większym stopniu stawia prywatne i państwowe instytucje badawcze na skrzyżowaniu między potrzebą dokładnego reprezentowania odrębnych grup (praktycznie podstawowy cel matematyki obliczeniowej i empirycznej analizy statystycznej) a możliwością szerzenia, między innymi, profilowania rasowego i demonizacji kulturowej .
Jest zatem prawdopodobne, że rynki pozaunijne będą miały nadzieję, że nowe rozporządzenie zapewni przynajmniej pewne konkretne obszary wytycznych oraz szereg mających zastosowanie definicji w tym zakresie.
Zewnętrzny opór wobec przepisów UE dotyczących sztucznej inteligencji
Nowe rozporządzenie prawdopodobnie będzie miało głęboki wpływ na konsekwencje prawne wykorzystania uczenia maszynowego do analizowania danych udostępnianych publicznie, a także na takie dane, które nadal będzie można wydobyć od użytkowników sieci w epoce po śledzeniu, która jest obecnie wprowadzany przez Apple, Firefox i (do A w mniejszym stopniu), Chrom.
Może zaistnieć potrzeba jasnego określenia jurysdykcji, na przykład w przypadkach, gdy giganci FAANG gromadzą dane użytkowników zgodnie z RODO, ale przetwarzają je za pomocą systemów uczenia maszynowego poza Unią Europejską. Nie jest jasne, czy algorytmy wygenerowane za pomocą takich systemów można zastosować na platformach w UE, a jeszcze mniej jasne, w jaki sposób można by udowodnić takie zastosowanie.
W przypadku wykorzystania sztucznej inteligencji do podejmowania decyzji w sprawie pozbawienia wolności i wydawania wyroków: rosnący trend w Stanach Zjednoczonych, okazjonalnie w Wielkiej Brytanii eksperymenty w tym sektorze zostałyby objęte nowymi przepisami, gdyby kraj ten nie opuścił Unii Europejskiej.
W 2020 r. Biały Dom projekt memorandum w sprawie regulacji AI przedstawił amerykański argument za niskim poziomem regulacji AI, stwierdzając to „Agencje federalne muszą unikać działań regulacyjnych lub pozaregulacyjnych, które niepotrzebnie utrudniają innowacje i rozwój sztucznej inteligencji”. Prawdopodobnie wydaje się, że takie podejście przetrwa administrację Trumpa, za czasów której opublikowano memorandum, ale raczej odzwierciedla nadchodzące zacieśnienie stosunków między USA a UE w następstwie nowego rozporządzenia.
Podobnie brytyjska Rada ds. AI „Plan działania sztucznej inteligencji” wyraża wielki entuzjazm dla korzyści gospodarczych wynikających z przyjęcia sztucznej inteligencji, lecz wyraża ogólną obawę, że nowe regulacje nie mogą utrudniać tego postępu.
Pierwsze prawdziwe prawo dotyczące sztucznej inteligencji
Zaangażowanie UE w przyjęcie stanowiska prawnego w sprawie sztucznej inteligencji jest innowacyjne. Ostatnie dziesięć lat charakteryzowało się m.in zamieć białych ksiąg oraz wstępnych ustaleń komisji i zaleceń rządów na całym świecie, koncentrujących się na etyce sztucznej inteligencji, przy niewielkiej liczbie uchwalonych przepisów.
Inne dokumenty
Krajowe polityki i strategie dotyczące sztucznej inteligencji (OECD)