Connect with us

Liderzy opinii

Zrównoważenie: Globalne podejścia do łagodzenia ryzyka związanego z AI

mm

Nie jest żadnym sekretem, że przez ostatnie kilka lat nowoczesne technologie stale przekraczają granice etyczne w ramach istniejących ram prawnych, które nie zostały stworzone z myślą o nich, w wyniku czego powstają minowe pola prawne i regulacyjne. Aby próbować przeciwdziałać skutkom tego, regulatorzy wybierają różne sposoby postępowania między krajami i regionami, zwiększając napięcia globalne, gdy nie można znaleźć porozumienia.

Te różnice regulacyjne zostały podkreślone na niedawnym szczycie AI Action w Paryżu. Ostateczne oświadczenie z tego wydarzenia koncentrowało się na kwestiach inkluzji i otwartości w rozwoju AI. Co ciekawe, tylko ogólnie wspomniało o bezpieczeństwie i godności, bez podkreślania konkretnych ryzyk związanych z AI, takich jak zagrożenia bezpieczeństwa. Opracowany przez 60 krajów, Wielka Brytania i Stany Zjednoczone były wyraźnie nieobecne w podpisach oświadczenia, co pokazuje, jak mało konsensusu jest obecnie w kluczowych krajach.

Rozwiązywanie ryzyka AI na skalę globalną

Rozwój i wdrożenie AI są regulowane inaczej w każdym kraju. Niemniej jednak, większość z nich mieści się gdzieś pomiędzy dwoma skrajnościami – stanowiskami Stanów Zjednoczonych i Unii Europejskiej (UE).

Sposób amerykański: najpierw innowacje, potem regulacje

W Stanach Zjednoczonych nie ma federalnych aktów regulujących AI, zamiast tego opiera się na rozwiązaniach rynkowych i dobrowolnych wytycznych. Jednakże, istnieją pewne kluczowe akty legislacyjne dotyczące AI, w tym National AI Initiative Act, który ma na celu koordynowanie federalnych badań AI, Federal Aviation Administration Reauthorisation Act oraz dobrowolny framework zarządzania ryzykiem National Institute of Standards and Technology (NIST).

Amerykański krajobraz regulacyjny pozostaje płynny i podlega dużym zmianom politycznym. Na przykład, w październiku 2023 roku, prezydent Biden wydał rozporządzenie wykonawcze w sprawie bezpiecznego, bezpiecznego i godnego zaufania rozwoju i użytkowania sztucznej inteligencji, ustanawiając standardy dla krytycznej infrastruktury, zwiększając bezpieczeństwo oparte na AI i regulując projekty AI finansowane przez rząd federalny. Jednak w styczniu 2025 roku, prezydent Trump uchylił to rozporządzenie wykonawcze, w odwróceniu od regulacji i w kierunku priorytetowego traktowania innowacji.

Podejście amerykańskie ma swoich krytyków. Uwzględniają oni, że jego „fragmentaryczna natura” prowadzi do skomplikowanej sieci zasad, które „nie posiadają egzekwowalnych standardów” i ma „luki w ochronie prywatności”. Niemniej jednak, stanowisko to jest w ciągłym przepływie – w 2024 roku ustawodawcy stanowi wprowadzili prawie 700 nowych aktów legislacyjnych dotyczących AI, a odbyło się wiele przesłuchań na temat AI w zarządzaniu, a także AI i własności intelektualnej. Chociaż jest oczywiste, że rząd Stanów Zjednoczonych nie boi się regulacji, wyraźnie szuka sposobów na ich wdrożenie bez konieczności kompromisowania innowacji.

Sposób unijny: priorytetem jest prewencja

Unia Europejska wybrała inne podejście. W sierpniu 2024 roku Parlament Europejski i Rada wprowadziły Akt o sztucznej inteligencji (AI Act), który jest powszechnie uważany za najbardziej kompletny akt regulacji AI do tej pory. Poprzez zastosowanie podejścia opartego na ryzyku, akt nakłada surowe reguły na systemy AI o wysokiej wrażliwości, np. te stosowane w opiece zdrowotnej i infrastrukturze krytycznej. Aplikacje o niskim ryzyku podlegają tylko minimalnej kontroli, a w niektórych aplikacjach, takich jak systemy oceny społecznej prowadzone przez rząd, są całkowicie zabronione.

W Unii Europejskiej zgodność jest obowiązkowa nie tylko w granicach UE, ale także dla każdego dostawcy, dystrybutora lub użytkownika systemów AI działających w UE lub oferujących rozwiązania AI na jej rynku – nawet jeśli system został opracowany poza UE. Prawdopodobnie spowoduje to wyzwania dla amerykańskich i innych nieunijnych dostawców zintegrowanych produktów, gdy będą oni pracować nad adaptacją.

Krytyki podejścia UE obejmują jego rzekome niepowodzenie w ustanowieniu standardu złota dla praw człowieka. Nadmierna złożoność również została zauważona wraz z brakiem jasności. Krytycy są zaniepokojeni bardzo ścisłymi wymogami technicznymi UE, ponieważ pojawiają się one w momencie, gdy UE stara się wzmocnić swoją konkurencyjność.

Znalezienie regulacyjnego środka

Tymczasem Wielka Brytania przyjęła „lekką” ramę, która mieści się gdzieś pomiędzy UE a Stanami Zjednoczonymi, opartą na wartościach takich jak bezpieczeństwo, sprawiedliwość i przejrzystość. Istniejący regulatorzy, tacy jak Urząd Komisarza ds. Informacji, posiadają władzę do wdrożenia tych zasad w swoich odpowiednich dziedzinach.

Rząd brytyjski opublikował Plan Działania na rzecz Sztucznej Inteligencji, w którym określono środki mające na celu inwestowanie w podstawy AI, wdrożenie przyjęcia AI w całej gospodarce oraz wspieranie „rodzimych” systemów AI. W listopadzie 2023 roku Wielka Brytania założyła Instytut Bezpieczeństwa AI (AISI), ewoluujący z Frontier AI Taskforce. AISI został utworzony w celu oceny bezpieczeństwa zaawansowanych modeli AI, współpracując z głównymi deweloperami w celu osiągnięcia tego poprzez testy bezpieczeństwa.

Jednak krytyki podejścia Wielkiej Brytanii do regulacji AI obejmują ograniczone możliwości egzekwowania oraz brak koordynacji między legislacją sektorową. Krytycy zauważyli również brak centralnej władzy regulacyjnej.

Podobnie jak Wielka Brytania, inne główne kraje również znalazły swoje miejsce gdzieś na spektrum amerykańsko-unijnym. Na przykład, Kanada wprowadziła podejście oparte na ryzyku z proponowanym Aktem o AI i danych (AIDA), który ma na celu znalezienie balansu między innowacjami, bezpieczeństwem i etycznymi rozważaniami. Japonia przyjęła „ludzkie” podejście do AI, publikując wytyczne, które promują godne zaufania rozwój. Tymczasem w Chinach regulacja AI jest ściśle kontrolowana przez państwo, a ostatnio wprowadzono prawa, które wymagają, aby modele AI generatywne przeszły ocenę bezpieczeństwa i były zgodne z wartościami socjalistycznymi. Podobnie jak Wielka Brytania, Australia wydała ramy etyki AI i rozważa aktualizację swoich praw dotyczących ochrony prywatności w celu rozwiązania wyzwań wynikających z innowacji AI.

Jak ustanowić współpracę międzynarodową?

Ponieważ technologia AI nadal ewoluuje, różnice między podejściami regulacyjnymi stają się coraz bardziej widoczne. Każe podejście indywidualne dotyczące ochrony danych, ochrony praw autorskich i innych aspektów sprawia, że osiągnięcie spójnego globalnego konsensusu w sprawie kluczowych ryzyk związanych z AI staje się coraz trudniejsze. W takich okolicznościach współpraca międzynarodowa jest niezbędna do ustanowienia standardów bazowych, które adresują kluczowe ryzyka bez ograniczania innowacji.

Odpowiedź na współpracę międzynarodową może leżeć w organizacjach globalnych, takich jak Organizacja Współpracy Gospodarczej i Rozwoju (OECD), Narody Zjednoczone i kilka innych, które obecnie pracują nad ustanowieniem międzynarodowych standardów i wytycznych etycznych dla AI. Droga do przodu nie będzie łatwa, ponieważ wymaga od wszystkich w branży znalezienia wspólnego gruntu. Jeśli uwzględnimy, że innowacje rozwijają się z prędkością światła – czas na dyskusję i porozumienie jest teraz.

Viktorija Lapenyte jest szefem Product Legal Counsel w Oxylabs. Z ponad dekadą doświadczenia prawnego w sektorze IT, Viktorija Lapėnytė rozwinęła głęboką ekspertyzę w radzeniu sobie z złożonymi wyzwaniami biznesowymi i regulacyjnymi jako wewnętrzny doradca prawny. Dziś, Viktorija jest szefem Product Legal Counsel w Oxylabs, wiodącej platformie do zbierania informacji z sieci. Zespół Viktoriji specjalizuje się w prawnych złożonościach wschodzących technologii danych, od zgodności i zarządzania ryzykiem regulacyjnym do prywatności danych i branżowych dyskusji na temat odpowiedzialnego pozyskiwania danych.