Kontakt z nami

Regulacja

UE wprowadzi pierwsze regulacje dotyczące sztucznej inteligencji

mm
Przepisy UE dotyczące sztucznej inteligencji

21 kwietnia Unia Europejska ogłosi swoje pierwsze ramy regulacyjne dotyczące wykorzystania sztucznej inteligencji. Nowe przepisy całkowicie zakazują stosowania systemów uczenia maszynowego „wysokiego ryzyka” i wprowadzają minimalne standardy dla innych technologii uczenia maszynowego, nakładając kary w wysokości 20 milionów euro, czyli 4% obrotów firmy, za naruszenia.

Projekt raportu nowej ustawy, uzyskane autorstwa Politico, ma na celu wspieranie innowacji i rozwoju systemów sztucznej inteligencji na rzecz ogólnej korzyści gospodarki i społeczeństwa UE, w takich obszarach jak produkcja, poprawa efektywności energetycznej i modelowanie zmian klimatu. Zabraniałaby jednak stosowania uczenia maszynowego w systemach oceny zdolności kredytowej, automatycznej oceny wyroków karnych oraz oceny przydatności do świadczeń z zabezpieczenia społecznego oraz wniosków o azyl lub wizę, a to tylko niektóre z zakazów, które zostaną ujawnione później.

Projekt wyraźnie to stwierdza Chiński styl systemy punktacji społecznej stosowane wobec jednostek i firm są sprzeczne z wartościami Unii Europejskiej i zostaną zakazane na mocy rozporządzenia, podobnie jak technologie „masowego nadzoru” oparte na sztucznej inteligencji.

Nadzór regulacyjny

Po nim spotkanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji w marcu 2021 r. UE zamierza również powołać nową Europejską Radę ds. Sztucznej Inteligencji, w której skład wejdzie każde państwo członkowskie, a także przedstawiciel Komisji Europejskiej i unijnego organu ochrony danych.

Być może najbardziej radykalnym i potencjalnie kontrowersyjnym rozporządzeniem zawartym w projekcie jest zakaz stosowania systemów, które szkodzą mieszkańcom UE poprzez „manipulowanie ich zachowaniem, opiniami lub decyzjami”, co prawdopodobnie obejmuje wiele technologii wspomagających analizę marketingu komercyjnego i politycznego.

Rozporządzenia wprowadzą wyjątki w zakresie zwalczania poważnych przestępstw, zezwalając na wymagane rozmieszczenie systemów rozpoznawania twarzy, w granicach zakresu i czasu ich stosowania.

Tak jak w przypadku szeroki zakres w kontekście RODO wydaje się, że te nowe przepisy mogą być na tyle ogólne, że wywołają „efekt mrożący” w obszarach, w których nie ma ścisłych wytycznych dotyczących korzystania ze sztucznej inteligencji, a korporacje będą narażone na ujawnienie informacji, jeśli ich wykorzystanie uczenia maszynowego znajdzie się w potencjalnie szarej strefie w ramach przepisów.

Stronniczość w świetle nowych przepisów UE dotyczących sztucznej inteligencji

Jednakże zdecydowanie największym wyzwaniem i potencjalnym problemem prawnym jest zapis zawarty w projekcie rozporządzenia, zgodnie z którym zbiory danych nie mogą „zawierać żadnych celowych lub nieumyślnych uprzedzeń”, które mogą ułatwiać dyskryminację.

Stronniczość danych to jeden z najtrudniejszych aspektów rozwoju systemów uczenia maszynowego – trudny do udowodnienia, trudny do rozwiązania i głęboko powiązany z centralną kulturą organów gromadzących dane. Problem w coraz większym stopniu stawia prywatne i państwowe instytucje badawcze na skrzyżowaniu między potrzebą dokładnego reprezentowania odrębnych grup (praktycznie podstawowy cel matematyki obliczeniowej i empirycznej analizy statystycznej) a możliwością szerzenia, między innymi, profilowania rasowego i demonizacji kulturowej .

Dlatego jest prawdopodobne, że rynki spoza UE będą liczyć na to, że nowe rozporządzenie zapewni przynajmniej pewne szczegółowe wytyczne i szereg definicji mających zastosowanie w tym zakresie.

Zewnętrzny opór wobec przepisów UE dotyczących sztucznej inteligencji

Nowe przepisy prawdopodobnie będą miały głęboki wpływ na prawne konsekwencje wykorzystywania uczenia maszynowego do analizy danych dostępnych publicznie, a także na dane, które nadal będzie można wyodrębnić od użytkowników sieci w erze po śledzeniu, która obecnie jest wprowadzana przez Jabłko, Firefox i (do A w mniejszym stopniu), Chrom.

Jurysdykcja może wymagać jasnego określenia, na przykład w przypadkach, gdy giganci FAANG gromadzą dane użytkowników zgodnie z RODO, ale przetwarzają je za pomocą systemów uczenia maszynowego poza Unią Europejską. Nie jest jasne, czy algorytmy opracowane za pomocą takich systemów można zastosować na platformach w UE, a tym bardziej, jak można by udowodnić takie zastosowanie.

W przypadku wykorzystania sztucznej inteligencji do podejmowania decyzji w sprawie pozbawienia wolności i wydawania wyroków: rosnący trend w Stanach Zjednoczonych, w Wielkiej Brytanii okazjonalnie eksperymenty w tym sektorze zostałyby objęte nowymi przepisami, gdyby kraj ten nie opuścił Unii Europejskiej.

W 2020 r. w projekcie memorandum Białego Domu w sprawie regulacji dotyczących sztucznej inteligencji przedstawiono amerykańskie stanowisko na rzecz niskich regulacji dotyczących sztucznej inteligencji, stwierdzając, że „Agencje federalne muszą unikać działań regulacyjnych i nieregulacyjnych, które niepotrzebnie hamują innowacje i rozwój w dziedzinie sztucznej inteligencji”. Prawdopodobnie wydaje się, że takie podejście przetrwa administrację Trumpa, za czasów której opublikowano memorandum, ale raczej odzwierciedla nadchodzące zacieśnienie stosunków między USA a UE w następstwie nowego rozporządzenia.

Podobnie Rada ds. Sztucznej Inteligencji Wielkiej Brytanii „Mapa drogowa sztucznej inteligencji” wyraża wielki entuzjazm dla korzyści gospodarczych wynikających z przyjęcia sztucznej inteligencji, lecz wyraża ogólną obawę, że nowe regulacje nie mogą utrudniać tego postępu.

Pierwsze prawdziwe prawo dotyczące sztucznej inteligencji

Zaangażowanie UE w opracowanie stanowiska prawnego w sprawie sztucznej inteligencji jest nowatorskie. Ostatnie dziesięć lat charakteryzowało się zamieć białych ksiąg oraz wstępnych ustaleń komisji i zaleceń rządów na całym świecie, koncentrujących się na etyce sztucznej inteligencji, przy niewielkiej liczbie uchwalonych przepisów.

DOKUMENTY ETYCZNE AI

Rozkład geograficzny wydawców wytycznych etycznych dotyczących sztucznej inteligencji według liczby opublikowanych dokumentów, w badaniu z 2019 r. Najwięcej wytycznych etycznych wydano w Stanach Zjednoczonych oraz w Unii Europejskiej, a następnie w Wielkiej Brytanii i Japonii. Kanada, Islandia, Norwegia, Zjednoczone Emiraty Arabskie, Indie, Singapur, Korea Południowa i Australia są reprezentowane po 1 dokumencie. Państwa członkowskie krajów G7, które przyczyniły się do powstania konkretnego oświadczenia G7, zostały wyróżnione osobno. Źródło: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf

Inne dokumenty

Krajowe polityki i strategie dotyczące sztucznej inteligencji (OECD)