Connect with us

Kąt Andersona

Automatyzacja ochrony praw autorskich w obrazach generowanych przez sztuczną inteligencję

mm
ChatGPT-4o: ' 1792x1024px image of a Front view of a British high court tribunal composed of three robots in judicial wigs. They are all examining an 8x10 photograph, but we cannot see what the photograph is, because its back is towards us. HQ, cinematic still'

Jak omawiano w zeszłym tygodniu, nawet podstawowe modele fundamentale za popularnymi systemami generatywnymi sztucznej inteligencji mogą produkować treści naruszające prawa autorskie, ze względu na niewystarczającą lub niezgodną kurację, a także z powodu obecności wielu wersji tego samego obrazu w danych szkoleniowych, co prowadzi do przeuczenia, i zwiększa prawdopodobieństwo rozpoznawalnych reprodukcji.

Pomimo wysiłków, aby zdominować przestrzeń generatywnej sztucznej inteligencji, i rosnącego nacisku, aby powstrzymać naruszenia praw własności intelektualnej, główne platformy, takie jak MidJourney i DALL-E od OpenAI, nadal stają twarzą w twarz z wyzwaniami w zapobieganiu nieumyślnemu powielaniu chronionych prawem autorskim treści:

Pojemność systemów generatywnych w powielaniu danych objętych prawem autorskim pojawia się regularnie w mediach.

Pojemność systemów generatywnych w powielaniu danych objętych prawem autorskim pojawia się regularnie w mediach.

Podczas gdy pojawiają się nowe modele, i gdy chińskie modele zyskują dominację, tłumienie materiałów objętych prawem autorskim w modelach podstawowych jest perspektywą ciężką do osiągnięcia; w rzeczywistości, lider rynku OpenAI oświadczył w zeszłym roku, że jest ‘niemożliwe’ stworzyć skuteczne i użyteczne modele bez danych objętych prawem autorskim.

Prior Art

W odniesieniu do nieumyślnego generowania materiałów objętych prawem autorskim, scena badawcza stoi wobec podobnego wyzwania, jak w przypadku włączania treści dla dorosłych i innych nieodpowiednich materiałów w danych źródłowych: jeden chce skorzystać z wiedzy (tj. poprawnej anatomii ludzkiej, która zawsze była oparta na studiach nagości) bez możliwości nadużywania jej.

Podobnie, twórcy modeli chcą skorzystać z ogromnego zakresu materiałów objętych prawem autorskim, które trafiają do zestawów hyperskali, takich jak LAION, bez rozwoju zdolności modelu do naruszania praw własności intelektualnej.

Pomijając ryzyka etyczne i prawne związane z próbami ukrycia wykorzystania materiałów objętych prawem autorskim, filtrowanie w przypadku drugim jest znacznie trudniejsze. Treści dla dorosłych często zawierają wyraźne, niskopoziomowe, ukryte cechy, które umożliwiają coraz skuteczniejsze filtrowanie bez wymogu bezpośrednich porównań z materiałami świata rzeczywistego. W przeciwieństwie do tego, ukryte osadzenia, które definiują miliony dzieł objętych prawem autorskim, nie redukują się do zestawu łatwo identyfikowalnych markerów, co sprawia, że automatyczne wykrywanie jest znacznie bardziej złożone.

CopyJudge

Ludzka ocena jest rzadkim i drogim towarem, zarówno w kuracji danych, jak i w tworzeniu filtrów i systemów “bezpieczeństwa” zaprojektowanych w celu zapewnienia, że materiały objęte prawem autorskim nie są dostarczane użytkownikom API-opartych portali, takich jak MidJourney i zdolność generowania obrazów ChatGPT.

Dlatego nowe akademickie współpracy między Szwajcarią, Sony AI i Chinami oferuje CopyJudge – zautomatyzowaną metodę orchestracji kolejnych grup współpracujących “sędziów” opartych na ChatGPT, które mogą sprawdzić dane wejściowe pod kątem oznak prawdopodobnego naruszenia praw autorskich.

CopyJudge ocenia różne generacje AI, które naruszają prawa autorskie. Źródło: https://arxiv.org/pdf/2502.15278

CopyJudge ocenia różne generacje AI, które naruszają prawa autorskie. Źródło: https://arxiv.org/pdf/2502.15278

CopyJudge skutecznie oferuje zautomatyzowany framework wykorzystujący duże modele języka i wizji (LVLM) do określenia istotnej podobieństwa między obrazami objętymi prawem autorskim a tymi wygenerowanymi przez modele dyfuzyjne tekst-obraz.

Podejście CopyJudge wykorzystuje uczenie wzmacnianie, aby zoptymalizować podpowiedzi naruszające prawa autorskie, a następnie wykorzystuje informacje z takich podpowiedzi, aby utworzyć nowe podpowiedzi, które są mniej prawdopodobne, aby wywołać obrazy objęte prawem autorskim.

Podejście CopyJudge wykorzystuje uczenie wzmacnianie i inne podejścia, aby zoptymalizować podpowiedzi naruszające prawa autorskie, a następnie wykorzystuje informacje z takich podpowiedzi, aby utworzyć nowe podpowiedzi, które są mniej prawdopodobne, aby wywołać obrazy objęte prawem autorskim.

Chociaż wiele generatorów obrazów opartych na AI filtruje podpowiedzi użytkowników pod kątem treści dla dorosłych, materiałów objętych prawem autorskim, odtworzeń osób prawdziwych i innych zabronionych dziedzin, CopyJudge zamiast tego wykorzystuje wyrafinowane “naruszające” podpowiedzi, aby utworzyć “oczyszczone” podpowiedzi, które są najmniej prawdopodobne, aby wywołać zabronione obrazy, bez zamiaru bezpośredniego zablokowania wpisu użytkownika.

Chociaż to nie jest nowe podejście, idzie ono w jakimś stopniu w kierunku uwolnienia systemów generatywnych opartych na API od prostego odmawiania wpisu użytkownika (nie mówiąc już o tym, że pozwala użytkownikom na rozwinięcie dostępu tylnymi drzwiami do zabronionych generacji, poprzez eksperymenty).

Jeden z niedawnych eksploatów (od tego czasu zamknięty przez deweloperów) pozwalał użytkownikom generować materiały pornograficzne na platformie Kling generatywnej AI, po prostu umieszczając wyraźny krzyż lub krucyfiks w obrazie przesłanym w przepływie obrazu-do-wideo.

W luce, która została zamknięta przez deweloperów Kling w końcu 2024 roku, użytkownicy mogli zmusić system do wygenerowania zabronionych materiałów wideo, po prostu umieszczając krzyż lub krucyfiks w obrazie I2V. Nie ma wyjaśnienia, dlaczego ten hack został stworzony. Źródło: Discord

Przykłady takie te podkreślają potrzebę oczyszczania podpowiedzi w systemach generatywnych online, zwłaszcza od czasu, gdy “nieuczenie maszyn”, w którym sam model podstawowy jest zmieniany, aby usunąć zabronione pojęcia, może mieć niepożądane skutki dla ostatecznej użyteczności modelu.

Szukając mniej drastycznych rozwiązań, system CopyJudge naśladuje ludzkie osądy prawne, wykorzystując AI do rozbicia obrazów na kluczowe elementy, takie jak kompozycja i kolor, aby wyfiltrować nieobjęte prawem autorskim części, i porównać to, co pozostaje. Zawiera również AI-napędzaną metodę dostosowania podpowiedzi i modyfikacji generowania obrazów, pomagając uniknąć problemów z prawem autorskim, jednocześnie zachowując treści twórcze.

Wyniki eksperymentalne, jak utrzymują autorzy, dowodzą równoważności CopyJudge z podejściami na poziomie stanu techniki w tym zakresie, i wskazują, że system wykazuje lepszą uogólnienie i interpretowalność, w porównaniu z poprzednimi pracami.

Nowy artykuł nosi tytuł CopyJudge: Zautomatyzowane identyfikacja i łagodzenie naruszeń praw autorskich w modelach dyfuzyjnych tekst-obraz, i pochodzi od pięciu badaczy z EPFL, Sony AI i chińskiego Uniwersytetu Westlake.

Metoda

Chociaż CopyJudge wykorzystuje GPT do tworzenia zmiennych trybunałów zautomatyzowanych sędziów, autorzy podkreślają, że system nie jest zoptymalizowany dla produktu OpenAI, i że dowolna liczba alternatywnych dużych modeli języka i wizji (LVLM) mogłaby być użyta zamiast.

W pierwszej instancji, ramy abstrakcji-filtrowania-porównania autorów są wymagane do rozłożenia obrazów źródłowych na części składowe, jak to widać na lewej stronie schematu poniżej:

Konceptualny schemat dla pierwszej fazy przepływu pracy CopyJudge.

Konceptualny schemat dla pierwszej fazy przepływu pracy CopyJudge.

W dolnym lewym rogu widzimy agenta filtrującego, który rozkłada sekcje obrazu w próbie identyfikacji cech, które mogą być rodzime dla dzieła objętego prawem autorskim, ale które same w sobie byłyby zbyt ogólne, aby kwalifikować się jako naruszenie.

Następnie wykorzystuje się wiele LVLM, aby ocenić wyfiltrowane elementy – podejście, które okazało się skuteczne w pracach takich jak oferta CSAIL z 2023 roku poprawiająca faktualność i rozumowanie w modelach językowych za pomocą debaty wieloagentowej, i ChatEval, wśród innych uznanych w nowym artykule.

Autorzy stwierdzają:

‘[My] przyjmujemy w pełni połączone podejście debaty synchronicznej, w którym każdy LVLM otrzymuje [odpowiedzi] od [innych] LVLM, zanim podejmie następną ocenę. To tworzy dynamiczną pętlę sprzężenia zwrotnego, która wzmacnia niezawodność i głębokość analizy, gdy modele dostosowują swoje oceny na podstawie nowych spostrzeżeń przedstawionych przez swoich rówieśników.

‘Każdy LVLM może dostosować swoją ocenę na podstawie odpowiedzi od innych LVLM lub pozostawić ją bez zmian.’

W procesie wykorzystuje się również wiele par obrazów ocenianych przez ludzi za pomocą few-shot in-context learning.

Gdy “trybunały” w pętli osiągną konsensus oceny, która jest w zakresie akceptowalności, wyniki są przekazywane do “sędziego” LVLM, który syntetyzuje wyniki w ostateczną ocenę.

Łagodzenie

Następnie autorzy skoncentrowali się na procesie łagodzenia podpowiedzi, opisanym wcześniej.

Schemat CopyJudge do łagodzenia naruszeń praw autorskich poprzez oczyszczanie podpowiedzi i szumów latentnych. System dostosowuje podpowiedzi iteracyjnie, wykorzystując uczenie wzmacnianie, aby modyfikować zmienne latentne, zmniejszając ryzyko naruszenia.

Schemat CopyJudge do łagodzenia naruszeń praw autorskich poprzez oczyszczanie podpowiedzi i szumów latentnych. System dostosowuje podpowiedzi iteracyjnie, wykorzystując uczenie wzmacnianie, aby modyfikować zmienne latentne, zmniejszając ryzyko naruszenia.

Dwa podejścia wykorzystane do łagodzenia podpowiedzi były kontrolą podpowiedzi opartą na LVLM, gdzie skuteczne, nie naruszające prawa autorskiego podpowiedzi są iteracyjnie rozwijane w klastrach GPT – podejście, które jest w pełni “czarne pudełko”, wymagające żadnego wewnętrznego dostępu do architektury modelu; oraz podejście oparte na uczeniu wzmacnianym (RL), w którym nagroda jest zaprojektowana, aby karać dane wyjściowe, które naruszają prawa autorskie.

Dane i testy

Aby przetestować CopyJudge, wykorzystano różne zestawy danych, w tym D-Rep, który zawiera pary obrazów rzeczywistych i fałszywych, ocenianych przez ludzi w skali 0-5.

Eksploracja zestawu danych D-Rep na Hugging Face. Ta kolekcja łączy obrazy rzeczywiste i wygenerowane.

Eksploracja zestawu danych D-Rep na Hugging Face. Ta kolekcja łączy obrazy rzeczywiste i wygenerowane. Source: https://huggingface.co/datasets/WenhaoWang/D-Rep/viewer/default/

Schemat CopyJudge rozważał obrazy D-Rep, które uzyskały ocenę 4 lub więcej jako przykłady naruszeń, a resztę trzymano z dala jako nieistotne dla praw autorskich. Oficjalne 4000 obrazów w zestawie danych zostało wykorzystanych jako obrazy testowe. Ponadto, badacze wybrali i opracowali obrazy 10 słynnych postaci z kartunów z Wikipedii.

Trzy architektury dyfuzyjne wykorzystane do generowania potencjalnie naruszających prawa autorskiego obrazów były Stable Diffusion V2; Kandinsky2-2; i Stable Diffusion XL. Autorzy ręcznie wybrali obraz naruszający prawa autorskiego i nie naruszający praw autorskiego z każdego z modeli, uzyskując 60 pozytywnych i 60 negatywnych próbek.

Metody bazowe wybrane do porównania były: L2 norm; Learned Perceptual Image Patch Similarity (LPIPS); SSCD; RLCP; i PDF-Emb. Do metryk wykorzystano Dokładność i F1 score jako kryteria naruszeń.

GPT-4o został wykorzystany do zaludnienia wewnętrznych zespołów debaty CopyJudge, wykorzystując trzech agentów do maksymalnie pięciu iteracji na dowolny podany obraz. Trzy losowe obrazy z każdej oceny w D-Rep zostały wykorzystane jako ludzkie priors dla agentów do rozważenia.

Wyniki naruszeń dla CopyJudge w pierwszej rundzie.

Wyniki naruszeń dla CopyJudge w pierwszej rundzie.

Z tych wyników autorzy komentują:

‘[Jest] oczywiste, że tradycyjne metody wykrywania kopii obrazu mają ograniczenia w zadaniu identyfikacji naruszeń praw autorskich. Nasze podejście znacznie przewyższa większość metod. Dla metody stanu techniki, PDF-Emb, która została przeszkolona na 36 000 próbkach z D-Rep, nasze wyniki na D-Rep są nieco gorsze.

‘Jednakże, jej słaba wydajność w zestawie danych Cartoon IP i Artwork podkreśla brak zdolności uogólniania, podczas gdy nasze podejście wykazuje równie doskonałe wyniki we wszystkich zestawach danych.’

Autorzy zauważają również, że CopyJudge zapewnia ‘relatywnie’ bardziej wyraźną granicę między przypadkami ważnymi a naruszającymi:

Dalsze przykłady z rund testowych, w materiałach uzupełniających nowego artykułu.

Dalsze przykłady z rund testowych, w materiałach uzupełniających nowego artykułu.

Badacze porównali swoje metody z Sony AI-współpracą z 2024 roku zatytułowaną Wykrywanie, wyjaśnianie i łagodzenie zapamiętywania w modelach dyfuzyjnych. Praca ta wykorzystywała model Stable Diffusion z 200 zapamiętanymi (tj. przeuczonymi) obrazami, aby wywołać dane objęte prawem autorskim w czasie inferencji.

Autorzy nowej pracy stwierdzili, że ich własna metoda łagodzenia podpowiedzi była w stanie wygenerować obrazy mniej prawdopodobne do spowodowania naruszeń, w porównaniu z podejściem z 2024 roku.

Wyniki łagodzenia zapamiętywania z CopyJudge w porównaniu z pracą z 2024 roku.

Wyniki łagodzenia zapamiętywania z CopyJudge w porównaniu z pracą z 2024 roku.

Autorzy komentują tutaj:

‘[Nasze] podejście może generować obrazy, które są mniej prawdopodobne, aby spowodować naruszenia, przy zachowaniu porównywalnej, nieco zmniejszonej dokładności dopasowania. Jak widać [poniżej], nasze podejście skutecznie unika wad [poprzedniej] metody, w tym niepowodzenia w łagodzeniu zapamiętywania lub generowaniu silnie odchylonych obrazów.’

Porównanie wygenerowanych obrazów i podpowiedzi przed i po łagodzeniu zapamiętywania.

Porównanie wygenerowanych obrazów i podpowiedzi przed i po łagodzeniu zapamiętywania.

Wnioski

Chociaż studium przedstawia obiecujące podejście do ochrony praw autorskich w obrazach generowanych przez AI, zależność od dużych modeli języka i wizji (LVLM) do wykrywania naruszeń może budzić obawy co do stronniczości i spójności, ponieważ osądy AI-mogą nie zawsze zgadzać się z standardami prawnymi.

Być może najważniejsze, projekt zakłada również, że egzekwowanie praw autorskich może być zautomatyzowane, pomimo realnych decyzji prawnych, które często obejmują subiektywne i kontekstowe czynniki, które AI może mieć trudności z interpretacją.

W świecie rzeczywistym, automatyzacja konsensusu prawnego, zwłaszcza w odniesieniu do danych wyjściowych AI, wydaje się prawdopodobne, że pozostanie kontrowersyjnym problemem, daleko poza ten czas, i daleko poza zakres dziedziny omawianej w tej pracy.

 

Pierwotnie opublikowane w poniedziałek, 24 lutego 2025

Pisarz na temat uczenia maszynowego, specjalista ds. syntezowania obrazów ludzi. Były kierownik treści badawczych w Metaphysic.ai.