Connect with us

Regulacje

Nowy kodeks postępowania UE w zakresie sztucznej inteligencji wpłynie na regulacje

mm

Komisja Europejska niedawno wprowadziła Kodeks postępowania, który może zmienić sposób działania firm zajmujących się sztuczną inteligencją. To nie jest kolejny zestaw wytycznych, lecz kompleksowa reforma nadzoru nad SI, której nie mogą ignorować nawet najwięksi gracze. Co czyni to podejście innym? Po raz pierwszy widzimy konkretne przepisy, które mogą zmusić firmy takie jak OpenAI i Google do otwarcia swoich modeli na zewnętrzne testy. To fundamentalna zmiana w sposobie, w jaki systemy SI mogą być rozwijane i wdrażane w Europie.

Nowi główni gracze w nadzorze nad SI

Komisja Europejska stworzyła ramy, które celują konkretnie w to, co nazywa systemami SI o “ryzyku systemowym”. Mówimy tu o modelach szkolonych z wykorzystaniem mocy obliczeniowej przekraczającej 10^25 FLOPs – próg, który GPT-4 już dawno przekroczył. Firmy będą musiały zgłaszać swoje plany szkolenia SI na dwa tygodnie przed jego rozpoczęciem. W centrum tego nowego systemu znajdują się dwa kluczowe dokumenty: Ramy Bezpieczeństwa i Ochrony (Safety and Security Framework, SSF) oraz Raport Bezpieczeństwa i Ochrony (Safety and Security Report, SSR). SSF to kompleksowy plan zarządzania ryzykiem związanym z SI, obejmujący wszystko od wstępnej identyfikacji zagrożeń po ciągłe środki bezpieczeństwa. Tymczasem SSR służy jako szczegółowe narzędzie dokumentacyjne dla każdego indywidualnego modelu.

Zewnętrzne testowanie dla modeli SI wysokiego ryzyka

Komisja domaga się zewnętrznego testowania modeli SI wysokiego ryzyka. To nie jest standardowa wewnętrzna kontrola jakości – niezależni eksperci oraz Biuro ds. Sztucznej Inteligencji UE zaglądają pod maskę tych systemów. Implikacje są poważne. Jeśli jesteś OpenAI lub Google, nagle musisz pozwolić zewnętrznym ekspertom na badanie twoich systemów. Projekt wyraźnie stwierdza, że firmy muszą “zapewnić wystarczające niezależne testy eksperckie przed wdrożeniem”. To ogromna zmiana w stosunku do obecnego podejścia samoregulacji. Pojawia się pytanie: Kto jest wykwalifikowany do testowania tych niezwykle złożonych systemów? Biuro ds. SI UE wkracza na terytorium, które nigdy wcześniej nie było badane. Będą potrzebować ekspertów, którzy potrafią zrozumieć i ocenić nową technologię SI, zachowując jednocześnie ścisłą poufność co do swoich odkryć. Ten wymóg zewnętrznego testowania może stać się obowiązkowy w całej UE poprzez akt wykonawczy Komisji. Firmy mogą próbować wykazać zgodność za pomocą “odpowiednich alternatywnych środków”, ale nikt nie jest do końca pewien, co to oznacza w praktyce.

Ochrona praw autorskich staje się poważna

UE zaczyna też poważnie podchodzić do praw autorskich. Zmusza dostawców SI do stworzenia jasnych polityk dotyczących postępowania z własnością intelektualną. Komisja popiera standard robots.txt – prosty plik, który mówi robotom internetowym, gdzie mogą, a gdzie nie mogą wchodzić. Jeśli strona internetowa mówi “nie” za pomocą robots.txt, firmy zajmujące się SI nie mogą tego ignorować i szkolić się na tej treści. Wyszukiwarki nie mogą karać stron za korzystanie z tych wykluczeń. To strategiczny ruch, który stawia twórców treści z powrotem za kierownicą. Firmy zajmujące się SI będą też musiały aktywnie unikać stron z piractwem podczas zbierania danych treningowych. UE wskazuje im nawet swój “Wykaz stron z podrabianymi towarami i piractwem” jako punkt wyjścia.

Co to oznacza dla przyszłości

UE tworzy całkowicie nowe pole gry dla rozwoju SI. Te wymagania wpłyną na wszystko – od sposobu, w jaki firmy planują swoje projekty SI, po to, jak zbierają dane treningowe. Każda większa firma zajmująca się SI stoi teraz przed wyborem. Muszą albo:

  • Otworzyć swoje modele na zewnętrzne testy
  • Wymyślić, jak wyglądają te tajemnicze “alternatywne środki” zgodności
  • Albo potencjalnie ograniczyć swoją działalność na rynku UE

Harmonogram ma tu również znaczenie. To nie jest jakaś odległa przyszła regulacja – Komisja działa szybko. Udało jej się podzielić około 1000 interesariuszy na cztery grupy robocze, które wspólnie opracowują szczegóły działania tego systemu. Dla firm budujących systemy SI dni “działaj szybko, a zasady ustalisz później” mogą dobiegać końca. Będą musiały zacząć myśleć o tych wymaganiach już teraz, a nie wtedy, gdy staną się obowiązkowe. Oznacza to:

  • Planowanie zewnętrznych audytów w harmonogramie rozwoju
  • Ustanowienie solidnych systemów zgodności z prawem autorskim
  • Budowanie ram dokumentacyjnych odpowiadających wymogom UE

Prawdziwy wpływ tych regulacji ujawni się w nadchodzących miesiącach. Podczas gdy niektóre firmy mogą szukać obejść, inne włączą te wymagania w swoje procesy rozwojowe. Ramy UE mogą wpłynąć na to, jak rozwój SI przebiega globalnie, zwłaszcza jeśli inne regiony pójdą w ślady podobnych środków nadzoru. W miarę jak te zasady przechodzą od projektu do wdrożenia, branża SI staje przed największą dotychczasową zmianą regulacyjną.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, badającym najnowsze osiągnięcia w tej dziedzinie. Współpracował z licznymi startupami AI i publikacjami na całym świecie.