Etyka
Hollywood przejmuje rządy w sprawie sztucznej inteligencji we własne ręce

Przemysł rozrywkowy nie czeka już na Kongres czy firmy technologiczne, aby ustalić zasady sztucznej inteligencji. Wraz z uruchomieniem Creators Coalition on AI (CCAI), ponad 500 artystów – w tym laureaci Oscara, aktorzy z listy A i cenieni reżyserzy – próbuje uczynić coś bezprecedensowego: samoregulację przemysłu, która mogłaby zmienić sposób, w jaki praca twórcza i technologia się przecinają.
Założyciele koalicji to jak lista gości na gali rozdania nagród. Daniel Kwan, scenarzysta i reżyser Everything Everywhere All at Once, pomógł uruchomić inicjatywę wraz z aktorami Josephem Gordonem-Levittiem i Natashą Lyonne, producentem Jonathanem Wangiem oraz Janet Yang, byłą prezes Academy of Motion Picture Arts and Sciences. Sygnatariuszami są Cate Blanchett, Natalie Portman, Rian Johnson, Guillermo del Toro, Paul McCartney i Taika Waititi.
Ich timing nie był przypadkowy. Koalicja przyspieszyła swoją publiczną premierę po tym, jak Disney ogłosił inwestycję w wysokości 1 miliarda dolarów w OpenAI 11 grudnia, wraz z umową licencyjną, która pozwoli OpenAI’s Sora generować filmy z udziałem Mickey Mouse, Dartha Vadera i ponad 200 innych postaci, począwszy od 2026 roku.
“Przygotowywaliśmy się do ogłoszenia, choć nie planowaliśmy ogłaszać tego tak szybko” – powiedział Kwan Hollywood Reporter. “Ale kiedy zobaczyliśmy próżnię przywództwa w naszym przemyśle i brak wiarygodnej siły, która mogłaby zmienić rozmowę, poczuliśmy potrzebę podjęcia działań”.
Cztery filary, jeden przemysł
CCAI zorganizował swój podejście wokół czterech podstawowych zasad: transparentności, zgody i wynagrodzenia za treści i dane; ochrony miejsc pracy z planami przejścia; zabezpieczeń przed nadużyciami i deepfake; oraz ochrony ludzkości w procesie twórczym.
Godne uwagi jest to, że koalicja nie domaga się całkowitego zakazu sztucznej inteligencji w rozrywce. “To nie jest pełne odrzucenie sztucznej inteligencji” – stwierdziła grupa na swojej oficjalnej stronie internetowej. “Technologia jest już tutaj. To jest zobowiązanie do odpowiedzialnej, ludzkiej innowacji”.
Ten pragmatyczny stosunek odróżnia CCAI od bardziej antagonistycznych stanowisk, które charakteryzowały strajki scenarzystów i aktorów w 2023 roku. Gordon-Levitt scharakteryzował problem w kategoriach etyki biznesu, a nie opozycji wobec technologii: “Wszyscy mamy do czynienia z tym samym zagrożeniem, nie ze sztuczną inteligencją jako technologią, ale z nieetycznymi praktykami biznesowymi, których winne są wiele dużych firm sztucznej inteligencji”.
Koalicja planuje utworzyć komitet doradczy ds. sztucznej inteligencji, aby opracować wspólne standardy, definicje i najlepsze praktyki. Z DGA, SAG-AFTRA, WGA, PGA i IATSE wszystkie idą do negocjacji umów, CCAI może pomóc w koordynowaniu bezprecedensowej zjednoczonej fronty w sprawie żądań związanych ze sztuczną inteligencją.
Czy przemysł może samoregulować się?
Podstawowe pytanie brzmi, czy dobrowolne standardy od profesjonalistów twórczych mogą osiągnąć to, czego nie udało się osiągnąć regulacjom rządowym. EU AI Act ustanowił kompleksowe zasady rozwoju sztucznej inteligencji w Europie, ale Stany Zjednoczone w dużej mierze pozostawiły tę technologię do samoregulacji. CCAI reprezentuje trzecią ścieżkę: sektorową samoregulację napędzaną przez tych, którzy są najbardziej dotknięci.
To podejście ma zarówno zalety, jak i ograniczenia. Gildie Hollywoodu mają dziesiątki lat doświadczenia w negocjowaniu tantiem, kredytów i warunków pracy. Rozumieją ekonomię swojego przemysłu w sposób, w jaki legislatorzy i technolodzy nie rozumieją. Ramy opracowane przez twórców dla twórców mogą rozwiązać nuans, których szerokie nakazy rządowe nie uwzględniają.
Ale samoregulacja działa tylko wtedy, gdy wszyscy biorą w niej udział. Partnerstwo Disneya z OpenAI pokazuje, że duże studia są gotowe iść do przodu z generatorami filmów sztucznej inteligencji, niezależnie od obaw społeczności twórczej. Firmy technologiczne rozwijające te narzędzia mają własne zachęty, i nie są sygnatariuszami zasad CCAI.
Prawdziwa siła koalicji może pochodzić z kolektywnej mocy gwiazd i nadchodzących negocjacji związków. Jeśli wystarczająco dużo talentów odmówi pracy nad projektami, które naruszają standardy CCAI, studia będą musiały słuchać. Jeśli gildie włączą zasady CCAI do wymagań umownych, dobrowolne standardy stają się obligatoryjne dla produkcji związkowych.
Istnieje również kwestia zgody i etyki danych – firmy sztucznej inteligencji już wytrenowały swoje modele na ogromnych ilościach twórczych prac, często bez pozwolenia. CCAI może ustalić standardy dla przyszłego użycia, ale nie może cofnąć tego, co już zostało pobrane i nauczone.
Model dla innych branż?
Jeśli CCAI odniesie sukces, może stać się modelem dla innych dziedzin twórczych, które mają do czynienia z wyzwaniami generatywnej sztucznej inteligencji. Muzykom, artystom wizualnym, dziennikarzom i twórcom gier grozi podobne wyzwania wokół zgody, wynagrodzenia i twórczego przesunięcia.
Przemysł rozrywkowy ma unikalne zalety: skoncentrowaną władzę w kilku związkach, członków o wysokim poziomie publicznej uwagi, oraz produkt, który zależy od ludzkiej kreatywności i autentyczności w sposób, w jaki inne branże nie zależą. Te czynniki sprawiają, że Hollywood jest rozsądnym polem testowym dla samoregulacji przemysłu.
Ale sukces jest daleki od gwarancji. Koalicja musi przetłumaczyć moc gwiazd na egzekwowalne standardy, i musi to zrobić, zanim możliwości sztucznej inteligencji jeszcze bardziej się rozwiną. Jak przyznał Kwan, grupa wystąpiła, bo zobaczyli “próżnię przywództwa”. Wypełnienie tej próżni wymaga więcej niż zasad – wymaga zorganizowanego, negocjowanego i gotowości do odstąpienia od projektów, które przekraczają ich granice.
Następny rok ukaże, czy CCAI stanie się prawdziwą siłą dla odpowiedzialności sztucznej inteligencji, czy kolejną dobrze zamierzoną inicjatywą, której technologia i kapitał po prostu ominą.












