Liderzy opinii
Szablon GPAI Europejskiej Komisji – Co to oznacza dla szkolenia AI?

W lipcu Europejska Komisja (EK) opublikowała nowy szablon ogólnego przeznaczenia sztucznej inteligencji (GPAI). Oznacza to, że dostawcy AI muszą ujawniać zawartość wprowadzaną do modeli w celu ich szkolenia. Jest to odpowiedź na miesiące nagłówków dotyczących twórców oskarżających o wykorzystywanie treści bez zgody do szkolenia AI.
Z nowym szablonem UE wyraźnie określiła swoje stanowisko: przejrzystość jest niezbędna. Szkolenie w czarnej skrzynce, gdzie coś jest tworzone bez ujawniania jego wewnętrznych mechanizmów, nie będzie opcją dla deweloperów AI. Oznacza to znaczącą zmianę, ponieważ działanie w Europie będzie wymagało pełnej widoczności wejść modelu i pochodzenia danych szkoleniowych, co zmusi do ponownej oceny gromadzenia i wykorzystania danych.
Wiele osób zwróciło uwagę na wyraźną różnicę między tym a niedawno opublikowanym planem działania AI USA, który koncentruje się głównie na deregulacji. Jak w przypadku każdego nowego prawa lub przepisu, firmy muszą teraz ocenić, jak szablon GPAI wpłynie na ich działalność.
Jeśli działają w różnych regionach, będą to robić również z planem działania AI USA, co jeszcze bardziej skomplikuje sytuację. Ze względu na złożony charakter tych przepisów i fakt, że regulowanie rozwoju AI w ten sposób jest niezbadanym terytorium, wyniki deweloperów będą się znacznie różnić.
Analiza szablonu modelu GPAI
W lipcu tego roku Komisja Europejska opublikowała obowiązkowy szablon dla dostawców GPAI, aby mogli opublikować publiczny podsumowanie danych wykorzystanych do szkolenia ich modeli. W ramach rozporządzenia UE dotyczącego AI dostawcy muszą ujawniać kategorie danych, takie jak publicznie dostępne zestawy danych, prywatne licencjonowane dane, pobrane treści z sieci, dane użytkowników i dane syntetyczne. Celem jest umożliwienie posiadaczom praw autorskich, użytkownikom i deweloperom korzystania z ich praw prawnych na mocy prawa UE.
GPT są szkolone z dużymi ilościami danych; jednak na obecnym rynku dostępne jest ograniczone informacje dotyczące pochodzenia tych danych. Publiczne podsumowanie, które ten szablon określa, zapewni kompleksowy przegląd danych wykorzystanych do szkolenia modelu, wylistuje główne kolekcje danych i wyjaśni inne źródła wykorzystane.
Porównanie i kontrast, plan działania AI USA
W porównaniu Stany Zjednoczone są zdeterminowane, aby wygrać wyścig AI i utrzymać przewagę konkurencyjną nad Chinami, gdy administracja Trumpa ogłosiła swój plan działania AI wcześniej tego lata. Ten nowy framework AI ma na celu przyspieszyć budowę energochłonnych centrów danych, które napędzają systemy AI, poprzez łagodzenie przepisów środowiskowych. Jednocześnie stara się zwiększyć globalny eksport amerykańskich technologii AI. Obejmujący 90 rekomendacji, plan odzwierciedla rosnące starania USA, aby utrzymać przewagę nad globalnymi konkurentami.
Plan oparty jest na trzech filarach – przyspieszaniu innowacji, budowaniu infrastruktury AI Ameryki i wspieraniu przywództwa w międzynarodowej dyplomacji i bezpieczeństwie AI.
Jako część tego planu, kluczowe spostrzeżenie z planu podkreśla “otwarte źródło” Ameryki, aby napędzać innowacje i dostępność. Podobnie plan podkreśla, jak rząd USA “będzie prowadził przykład” w rozwoju AI – poprzez szkolenia, wymiany talentów i rozszerzanie wdrożeń w różnych branżach.
Z tym planem Stany Zjednoczone mają na celu uproszczenie wszystkich obecnych regulacji technologicznych, szczególnie środowiskowych, aby upewnić się, że legislacja nie spowalnia wzrostu, a także zachęcać do szerszego międzynarodowego rozpowszechniania oprogramowania i sprzętu AI USA. Ten “antyregulacyjny” podejście oznacza wyraźną zmianę od wcześniejszych ram opartych na etyce, przejrzystości i odpowiedzialnych innowacjach – zamiast tego przechodząc w kierunku bardziej agresywnego “innowacyjnego” planu działania.
Brakujący element
Warto zrobić krok wstecz i rozważyć, czy te akty, chociaż różne, mogą cierpieć z powodu tych samych słabości, które spowodują, że deweloperzy zobaczą brak wartości w przestrzeganiu ich. Podejście UE i USA pozostawia krytyczną lukę wokół własności intelektualnej w zbiorach danych szkoleniowych AI. Rozporządzenie UE dotyczące AI nakazuje podsumowanie danych szkoleniowych i politykę zgodności z prawem autorskim, ale nie ustanawia skalowalnego frameworku dla identyfikacji lub licencjonowania chronionych utworów.
W Stanach Zjednoczonych nie istnieją żadne szczegółowe reguły – pozostawiając firmy AI do nawigowania w ewoluującym prawie kształtowanym przez orzeczenia sądowe i trwające spory z posiadaczami praw. Poza tekstem prawnym, co jest nieobecne, to praktyczna strona; żadne z podejść nie określa funkcjonalnych, branżowych metod wykrywania chronionych treści w dużym stopniu, weryfikacji legalnego użycia lub ułatwiania licencjonowania. Dopóki takie rozwiązania nie zostaną określone, niepewność wokół praw autorskich w szkoleniu AI pozostanie znaczącym wyzwaniem dla branży.
Ukryty koszt pomijania śladów AI przez firmy
Pomimo pewnych słabości w tych regulacjach, założono, że spowodują one, że deweloperzy AI będą bardzo skupieni na tym, jak pozostać na powierzchni z punktu widzenia prawnego – ale nie zawsze jest to przypadkiem. W rzeczywistości prawdziwa przepaść w AI nie leży między regulacjami UE a USA, ale między firmami, które inwestują w ślad AI dzisiaj, a tymi, które grają, że nie będą musiały. Jest to powtórzenie tego, co widzieliśmy kilka lat temu z wdrożeniem Ogólnego Rozporządzenia o Ochronie Danych (GDPR) – firmy, które wcześnie zbudowały prywatność przez projekt, nie tylko uniknęły grzywien, ale także zdobyły zaufanie konsumentów i łatwiejszy dostęp do innych rynków, które później odbijały standardy GDPR.
Ten sam wzorzec może się pojawiać w AI. Ślad danych szkoleniowych i decyzji modelu najprawdopodobniej staną się globalną bazą, a firmy, które opóźniają, będą musiały przebudować swoje systemy w przyszłości. Wrócenie, aby dodać dokumentację, śledzenie pochodzenia i funkcje audytu do istniejącego systemu, jest znacznie droższe i bardziej skomplikowane niż budowanie ich od samego początku, odwracając uwagę od bardziej ukierunkowanych na zwrot z inwestycji budowy, które firma chce ukończyć.
Innymi słowy, ślad i przejrzystość nie są opcjonalnymi dodatkami; muszą być wbudowane w systemy AI od samego początku. Firmy, które traktują je jako pomyślne, ryzykują zablokowanie innowacji, konsekwencjami regulacyjnymi i utratą wyścigu na zawsze.
Etyczny AI wymaga globalnej jedności
Z makro perspektywy te zróżnicowane podejścia tworzą prawdziwy problem dla globalnych firm. Firmy w rynkach o mniejszym nadzorze, takich jak USA, mogą szybciej się rozwijać w krótkim terminie, ale gdy zdecydują się wejść do UE, napotkają barierę zgodności: reguły AI Act dotyczące śladów i dokumentacji wymagają możliwości, których nigdy nie zbudowali.
Przebudowa śledzenia pochodzenia, dokumentacji i funkcji audytu w istniejącym systemie jest kosztowna, powolna i burzliwa, szczególnie dlatego, że ślad jest jedną z najbardziej wymagających części zgodności. Jest to ten sam wzorzec, jaki widzieliśmy z GDPR, gdzie spóźnialscy w kwestii prywatności przez projekt mieli trudności z drogimi przebudowami i opóźnionym dostępem do rynku, podczas gdy wczesne podmioty zyskały trwałą przewagę.












