Sztuczna inteligencja
Czym są deepfake’i?

W miarę jak deepfake’i stają się łatwiejsze do stworzenia i coraz powszechniejsze, poświęca się im coraz więcej uwagi. Deepfake’i stały się centralnym punktem dyskusji dotyczących etyki AI, dezinformacji, otwartości informacji i internetu oraz regulacji. Warto być poinformowanym na temat deepfake’ów i intuicyjnie rozumieć, czym one są. Ten artykuł wyjaśni definicję deepfake’a, przyjrzy się przypadkom ich użycia, omówi, jak można wykryć deepfake’i, oraz zbada implikacje deepfake’ów dla społeczeństwa.
What are Deepfakes?
Zanim przejdziemy do dalszej dyskusji na temat deepfake’ów, warto poświęcić chwilę na wyjaśnienie czym właściwie są “deepfake’i”. Istnieje znaczne zamieszanie dotyczące terminu Deepfake, który często jest błędnie stosowany do każdego sfałszowanego materiału, niezależnie od tego, czy jest to prawdziwy deepfake. Aby zakwalifikować się jako Deepfake, dany sfałszowany materiał musi zostać wygenerowany za pomocą systemu uczenia maszynowego, konkretnie głębokiej sieci neuronowej. Kluczowym składnikiem deepfake’ów jest uczenie maszynowe. Uczenie maszynowe umożliwiło komputerom stosunkowo szybkie i łatwe automatyczne generowanie wideo i audio. Głębokie sieci neuronowe są trenowane na nagraniach prawdziwej osoby, aby sieć nauczyła się, jak ludzie wyglądają i poruszają się w danych warunkach środowiskowych. Wytrenowana sieć jest następnie stosowana na obrazach innej osoby i uzupełniana dodatkowymi technikami grafiki komputerowej, aby połączyć nową osobę z oryginalnym materiałem. Algorytm enkodera służy do określenia podobieństw między oryginalną twarzą a twarzą docelową. Po wyizolowaniu wspólnych cech twarzy używany jest drugi algorytm AI zwany dekoderem. Dekoder bada zakodowane (skompresowane) obrazy i rekonstruuje je na podstawie cech z oryginalnych obrazów. Używane są dwa dekodery, jeden dla twarzy oryginalnego podmiotu, a drugi dla twarzy osoby docelowej. Aby dokonać zamiany, dekoder wytrenowany na obrazach osoby X otrzymuje obrazy osoby Y. Rezultatem jest rekonstrukcja twarzy osoby Y na mimice i orientacji twarzy osoby X. Obecnie stworzenie deepfake’a nadal zajmuje sporo czasu. Twórca fałszywki musi spędzić dużo czasu na ręcznym dostosowywaniu parametrów modelu, ponieważ nieoptymalne parametry prowadzą do zauważalnych niedoskonałości i błędów obrazu, które zdradzają prawdziwą naturę fałszerstwa. Chociaż często zakłada się, że większość deepfake’ów jest tworzona za pomocą typu sieci neuronowej zwanej generatywną siecią przeciwstawną (GAN), wiele (a może większość) współcześnie tworzonych deepfake’ów nie opiera się na GAN-ach. Podczas gdy GAN-y odegrały znaczącą rolę w tworzeniu wczesnych deepfake’ów, większość filmów deepfake jest tworzona za pomocą alternatywnych metod, według Siwei Lyu z SUNY Buffalo. Do wytrenowania GAN-a potrzeba nieproporcjonalnie dużej ilości danych treningowych, a GAN-y często potrzebują znacznie więcej czasu na renderowanie obrazu w porównaniu z innymi technikami generowania obrazu. GAN-y są również lepsze do generowania statycznych obrazów niż wideo, ponieważ mają trudności z utrzymaniem spójności z klatki na klatkę. Znacznie częściej do tworzenia deepfake’ów używa się enkodera i wielu dekoderów.
What Are Deepfakes Used For?
Wiele deepfake’ów znajdujących się w internecie ma charakter pornograficzny. Według badań przeprowadzonych przez firmę AI, Deeptrace, w próbce około 15 000 filmów deepfake pobranych we wrześniu 2019 roku, około 95% z nich miało charakter pornograficzny. Niepokojącą implikacją tego faktu jest to, że w miarę jak technologia staje się łatwiejsza w użyciu, może wzrosnąć liczba incydentów z fałszywą pornografią zemsty. Jednak nie wszystkie deepfake’i mają charakter pornograficzny. Istnieją bardziej uzasadnione zastosowania technologii deepfake. Technologia audio deepfake może pomóc ludziom w nadawaniu ich regularnych głosów po ich uszkodzeniu lub utracie z powodu choroby lub urazu. Deepfake’i mogą być również używane do ukrywania twarzy osób znajdujących się w delikatnych, potencjalnie niebezpiecznych sytuacjach, jednocześnie umożliwiając odczytanie ich ust i wyrazu twarzy. Technologia deepfake może potencjalnie zostać wykorzystana do poprawy dubbingu w filmach obcojęzycznych, pomóc w naprawie starych i uszkodzonych materiałów, a nawet tworzyć nowe style sztuki.
Non-Video Deepfakes
Chociaż większość ludzi myśli o fałszywych filmach, gdy słyszą termin “deepfake”, fałszywe filmy nie są bynajmniej jedynym rodzajem fałszywych mediów wytwarzanych za pomocą technologii deepfake. Technologia deepfake jest używana do tworzenia również fałszywych zdjęć i audio. Jak wspomniano wcześniej, GAN-y są często używane do generowania fałszywych obrazów. Uważa się, że było wiele przypadków fałszywych profili LinkedIn i Facebook, które mają obrazy profilowe wygenerowane za pomocą algorytmów deepfake. Możliwe jest również tworzenie audio deepfake’ów. Głębokie sieci neuronowe są szkolone w celu tworzenia klonów głosu/skórek głosowych różnych osób, w tym celebrytów i polityków. Jednym ze słynnych przykładów audio Deepfake jest sytuacja, gdy firma AI Dessa wykorzystała model AI, wspierany przez algorytmy nie-AI, aby odtworzyć głos prowadzącego podcast Joe Rogana.
How To Spot Deepfakes
W miarę jak deepfake’i stają się coraz bardziej wyrafinowane, odróżnienie ich od autentycznych materiałów będzie coraz trudniejsze. Obecnie istnieje kilka charakterystycznych oznak, na które ludzie mogą zwrócić uwagę, aby ustalić, czy film jest potencjalnie deepfake’iem, takich jak słaba synchronizacja ust, nienaturalny ruch, migotanie wokół krawędzi twarzy oraz zniekształcenia drobnych szczegółów, takich jak włosy, zęby czy odbicia. Innymi potencjalnymi oznakami deepfake’a są części filmu o niższej jakości oraz nieregularne mruganie oczami. Chociaż te oznaki mogą pomóc w wykryciu deepfake’a w chwili obecnej, w miarę jak technologia deepfake się poprawia, jedyną opcją dla niezawodnego wykrywania deepfake’ów mogą być inne rodzaje AI szkolone do odróżniania fałszerstw od prawdziwych materiałów. Firmy zajmujące się sztuczną inteligencją, w tym wiele dużych firm technologicznych, badają metody wykrywania deepfake’ów. W grudniu ubiegłego roku rozpoczęło się wyzwanie w zakresie wykrywania deepfake’ów, wspierane przez trzech gigantów technologicznych: Amazon, Facebook i Microsoft. Zespoły badawcze z całego świata pracowały nad metodami wykrywania deepfake’ów, konkurując o opracowanie najlepszych metod wykrywania. Inne grupy badaczy, jak grupa połączonych badaczy z Google i Jigsaw, pracują nad rodzajem “kryminalistyki twarzy”, która może wykrywać zmodyfikowane filmy, udostępniając swoje zbiory danych jako open source i zachęcając innych do opracowywania metod wykrywania deepfake’ów. Wspomniana Dessa pracowała nad udoskonaleniem technik wykrywania deepfake’ów, starając się zapewnić, że modele wykrywania działają na filmach deepfake znalezionych “w dziczy” (w internecie), a nie tylko na wcześniej przygotowanych zestawach danych treningowych i testowych, takich jak otwarty zestaw danych udostępniony przez Google. Istnieją również inne strategie, które są badane w celu radzenia sobie z proliferacją deepfake’ów. Na przykład sprawdzanie zgodności filmów z innymi źródłami informacji jest jedną ze strategii. Można przeprowadzać wyszukiwania filmów z wydarzeń potencjalnie nagranych z innych kątów lub sprawdzać tło filmu (takie jak wzorce pogodowe i lokalizacje) pod kątem niespójności. Poza tym system rejestru online Blockchain mógłby rejestrować filmy w momencie ich pierwotnego stworzenia, przechowując ich oryginalne audio i obrazy, tak aby filmy pochodne zawsze można było sprawdzić pod kątem manipulacji. Ostatecznie ważne jest, aby stworzyć niezawodne metody wykrywania deepfake’ów i aby te metody wykrywania nadążały za najnowszymi postępami w technologii deepfake. Chociaż trudno dokładnie przewidzieć, jakie będą skutki deepfake’ów, jeśli nie będzie niezawodnych metod wykrywania deepfake’ów (i innych form fałszywych mediów), dezinformacja może potencjalnie rozprzestrzeniać się niekontrolowanie i osłabiać zaufanie ludzi do społeczeństwa i instytucji.
Implications of Deepfakes
Jakie są niebezpieczeństwa związane z niekontrolowanym rozprzestrzenianiem się deep fake’ów? Jednym z największych problemów, które obecnie tworzą deepfake’i, jest pornografia bez zgody, tworzona przez łączenie twarzy ludzi z pornograficznymi filmami i obrazami. Etycy AI obawiają się, że deepfake’i będą częściej wykorzystywane do tworzenia fałszywej pornografii zemsty. Poza tym deepfake’i mogłyby być używane do nękania i niszczenia reputacji praktycznie każdego, ponieważ mogłyby być używane do umieszczania ludzi w kontrowersyjnych i kompromitujących scenariuszach. Firmy i specjaliści ds. cyberbezpieczeństwa wyrazili obawy dotyczące wykorzystania deepfake’ów do ułatwiania oszustw, nadużyć finansowych i wymuszeń. Podobno głos deepfake został wykorzystany do przekonania pracowników firmy do przekazania pieniędzy oszustom. Możliwe, że deepfake’i mogą mieć szkodliwe skutki wykraczające poza te wymienione powyżej. Deepfake’i mogą potencjalnie podkopać zaufanie ludzi do mediów w ogóle i utrudnić ludziom odróżnienie prawdziwych wiadomości od fałszywych. Jeśli wiele filmów w sieci jest fałszywych, rządom, firmom i innym podmiotom łatwiej jest podważać wiarygodność uzasadnionych kontrowersji i nieetycznych praktyk. Jeśli chodzi o rządy, deepfake’i mogą nawet stanowić zagrożenie dla funkcjonowania demokracji. Demokracja wymaga, aby obywatele mogli podejmować świadome decyzje dotyczące polityków na podstawie wiarygodnych informacji. Dezinformacja podważa procesy demokratyczne. Na przykład prezydent Gabonu, Ali Bongo, pojawił się w filmie, próbując uspokoić obywateli Gabonu. Prezydent był uważany za chorego przez długi czas, a jego nagłe pojawienie się w prawdopodobnie fałszywym filmie wywołało próbę zamachu stanu. Prezydent Donald Trump twierdził, że nagranie audio, na którym chwali się, że chwyta kobiety za genitalia, było fałszywe, mimo że opisał je również jako “rozmowę w szatni”. Książę Andrzej również twierdził, że zdjęcie dostarczone przez prawnika Emily Maitilis było fałszywe, choć prawnik nalegał na jego autentyczność. Ostatecznie, chociaż istnieją uzasadnione zastosowania technologii deepfake, z jej niewłaściwego użycia może wyniknąć wiele potencjalnych szkód. Z tego powodu niezwykle ważne jest, aby tworzyć i utrzymywać metody określania autentyczności mediów.








