stub Czym są Deepfakes? - Unite.AI
Kontakt z nami

AI 101

Czym są Deepfakes?

mm
Zaktualizowano on

W miarę jak tworzenie deepfakes staje się łatwiejsze i bardziej płodne, poświęca się im coraz więcej uwagi. Deepfakes stały się centralnym punktem dyskusji na temat etyki sztucznej inteligencji, dezinformacji, otwartości informacji i Internetu oraz regulacji. Opłaca się być poinformowanym na temat deepfakes i mieć intuicyjne zrozumienie, czym są deepfakes. W tym artykule wyjaśnimy definicję deepfakes, przeanalizujemy przypadki ich użycia, omówimy, w jaki sposób można wykryć deepfakes i zbadamy konsekwencje deepfakes dla społeczeństwa.

Czym są Deepfakes?

Zanim przejdziemy do dalszego omówienia deepfakes, warto poświęcić trochę czasu i wyjaśnić czym właściwie są „deepfakes”.. Istnieje wiele nieporozumień dotyczących terminu Deepfake i często termin ten jest błędnie stosowany w odniesieniu do wszelkich fałszywych mediów, niezależnie od tego, czy jest to prawdziwy deepfake, czy nie. Aby zakwalifikować się jako Deepfake, dane fałszywe media muszą zostać wygenerowane za pomocą systemu uczenia maszynowego, w szczególności głębokiej sieci neuronowej.

Kluczowym składnikiem deepfakes jest uczenie maszynowe. Uczenie maszynowe umożliwiło komputerom stosunkowo szybkie i łatwe automatyczne generowanie obrazu i dźwięku. Głębokie sieci neuronowe są szkolone na materiale filmowym prawdziwej osoby, aby sieć mogła dowiedzieć się, jak ludzie wyglądają i poruszają się w docelowych warunkach środowiskowych. Wyszkolona sieć jest następnie wykorzystywana na obrazach innej osoby i uzupełniana dodatkowymi technikami grafiki komputerowej w celu połączenia nowej osoby z oryginalnym materiałem filmowym. Algorytm kodera służy do określenia podobieństw między twarzą oryginalną a twarzą docelową. Po wyodrębnieniu wspólnych cech twarzy używany jest drugi algorytm AI zwany dekoderem. Dekoder bada zakodowane (skompresowane) obrazy i rekonstruuje je w oparciu o cechy oryginalnych obrazów. Stosowane są dwa dekodery, jeden na twarzy pierwotnej osoby, a drugi na twarzy osoby docelowej. Aby dokonać zamiany, dekoder wyszkolony na obrazach osoby X otrzymuje obrazy osoby Y. W rezultacie twarz osoby Y jest rekonstruowana na podstawie wyrazu twarzy i orientacji Osoby X.

Obecnie stworzenie deepfake'a zajmuje sporo czasu. Twórca podróbki musi spędzić dużo czasu na ręcznym dopasowywaniu parametrów modelu, ponieważ nieoptymalne parametry doprowadzą do zauważalnych niedoskonałości i zakłóceń obrazu, które oddają prawdziwą naturę podróbki.

Chociaż często zakłada się, że większość deepfake'ów jest tworzona za pomocą sieci neuronowej zwanej a generatywna sieć przeciwstawna (GAN)wiele (być może większość) tworzonych obecnie deepfake’ów nie opiera się na sieciach GAN. Chociaż sieci GAN odegrały znaczącą rolę w tworzeniu wczesnych deepfake’ów, według Siwei Lyu z SUNY Buffalo większość filmów deepfake powstaje metodami alternatywnymi.

Wytrenowanie sieci GAN wymaga nieproporcjonalnie dużej ilości danych szkoleniowych, a renderowanie obrazu w sieciach GAN często zajmuje dużo więcej czasu w porównaniu z innymi technikami generowania obrazów. Sieci GAN są również lepsze do generowania obrazów statycznych niż wideo, ponieważ sieci GAN mają trudności z utrzymaniem spójności między klatkami. Znacznie częściej do tworzenia deepfakes używa się kodera i wielu dekoderów.

Do czego służą Deepfakes?

Wiele deepfakesów znalezionych w Internecie ma charakter pornograficzny. Według badań przeprowadzonych przez Deeptrace, firmę zajmującą się sztuczną inteligencją, spośród próbki około 15,000 2019 fałszywych filmów nakręconych we wrześniu 95 r. około XNUMX% z nich miało charakter pornograficzny. Niepokojącą konsekwencją tego faktu jest to, że w miarę jak technologia stanie się łatwiejsza w użyciu, może wzrosnąć liczba przypadków fałszywej porno zemsty.

Jednak nie wszystkie głębokie podróbki mają charakter pornograficzny. Istnieje więcej legalnych zastosowań technologii deepfake. Technologia audio deepfake może pomóc ludziom w transmitowaniu normalnego głosu po jego uszkodzeniu lub utracie w wyniku choroby lub urazu. Deepfakes można również wykorzystać do ukrywania twarzy osób znajdujących się w delikatnych, potencjalnie niebezpiecznych sytuacjach, przy jednoczesnym umożliwieniu odczytania ich ust i wyrazu twarzy. Technologia Deepfake może potencjalnie zostać wykorzystana do ulepszenia dubbingu filmów obcojęzycznych, pomocy w naprawie starych i uszkodzonych nośników, a nawet tworzenia nowych stylów artystycznych.

Deepfake inne niż wideo

Chociaż większość ludzi, słysząc termin „deepfake”, myśli o fałszywych filmach, fałszywe filmy nie są bynajmniej jedynym rodzajem fałszywych mediów produkowanych przy użyciu technologii deepfake. Technologia Deepfake jest wykorzystywana również do tworzenia podróbek zdjęć i plików audio. Jak wspomniano wcześniej, sieci GAN są często wykorzystywane do generowania fałszywych obrazów. Uważa się, że było wiele przypadków fałszywych profili na LinkedIn i Facebooku, których obrazy profilowe zostały wygenerowane za pomocą algorytmów deepfake.

Możliwe jest również tworzenie deepfakesów audio. Głębokie sieci neuronowe są szkolone do tworzenia klonów/skórek głosów różnych osób, w tym celebrytów i polityków. Jednym ze znanych przykładów audio Deepfake jest firma Dessa zajmująca się sztuczną inteligencją wykorzystał model AI, obsługiwane przez algorytmy inne niż sztuczna inteligencja, aby odtworzyć głos gospodarza podcastu Joe Rogana.

Jak rozpoznać Deepfakes

W miarę jak deepfakes stają się coraz bardziej wyrafinowane, odróżnienie ich od prawdziwych mediów będzie coraz trudniejsze. Obecnie istnieją kilka charakterystycznych znaków ludzie mogą sprawdzić, czy film jest potencjalnie deepfake’iem, na przykład słabą synchronizacją warg, nienaturalnym ruchem, migotaniem wokół krawędzi twarzy i wypaczaniem drobnych szczegółów, takich jak włosy, zęby czy odbicia. Inne potencjalne oznaki deepfake’a obejmują fragmenty tego samego filmu o niższej jakości i nieregularne mruganie oczami.

Chociaż te oznaki mogą w tej chwili pomóc wykryć deepfake, w miarę ulepszania technologii deepfake jedyną opcją niezawodnego wykrywania deepfake mogą być inne typy sztucznej inteligencji przeszkolone w odróżnianiu podróbek od prawdziwych mediów.

Firmy zajmujące się sztuczną inteligencją, w tym wiele dużych firm technologicznych, badają metody wykrywania deepfakes. W grudniu ubiegłego roku rozpoczęło się wyzwanie polegające na wykrywaniu deepfake'ów, wspierane przez trzech gigantów technologicznych: Amazon, Facebook i Microsoft. Zespoły badawcze z całego świata pracowały nad metodami wykrywania deepfakes, rywalizując ze sobą w opracowaniu najlepszych metod wykrywania. Inne grupy badaczy, na przykład grupa połączonych badaczy z Google i Jigsaw, pracują nad rodzajem „analizy twarzy”, która może wykryć zmienione filmy, udostępniając swoje zbiory danych jako open source oraz zachęcanie innych do opracowywania metod wykrywania deepfake. Wspomniana wyżej Dessa pracowała nad udoskonaleniem technik wykrywania deepfake, starając się zapewnić, że modele wykrywania działają na filmach deepfake znalezionych w dziczy (w Internecie), a nie tylko na wstępnie skomponowanych zbiorach danych szkoleniowych i testowych, takich jak zbiór danych typu open source Google dostarczyło.

Istnieją również inne strategie które są badane pod kątem rozprzestrzeniania się deepfake’ów. Jedną ze strategii jest na przykład sprawdzanie zgodności filmów z innymi źródłami informacji. Można wyszukiwać nagrania wideo przedstawiające wydarzenia potencjalnie uchwycone z innych perspektyw lub sprawdzać szczegóły tła wideo (takie jak warunki pogodowe i lokalizacje) pod kątem niespójności. Ponad to, system księgi głównej Blockchain mogliby rejestrować filmy wideo w momencie ich początkowego tworzenia, zachowując ich oryginalny dźwięk i obrazy, aby zawsze można było sprawdzić pochodne filmy pod kątem manipulacji.

Ostatecznie ważne jest, aby stworzyć niezawodne metody wykrywania deepfake i aby te metody wykrywania nadążały za najnowszymi osiągnięciami w technologii deepfake. Chociaż trudno dokładnie wiedzieć, jakie będą skutki deepfakes, jeśli nie istnieją niezawodne metody wykrywania deepfakes (i innych form fałszywych mediów), dezinformacja może potencjalnie szerzyć się i obniżyć zaufanie ludzi do społeczeństwa i instytucji.

Konsekwencje Deepfakes

Jakie niebezpieczeństwa wiążą się z umożliwieniem niekontrolowanego rozprzestrzeniania się deep fake'ów?

Jednym z największych problemów, jakie stwarzają obecnie deepfakes, jest pornografia wykonywana bez zgody osób, stworzona w drodze łączenia ludzkich twarzy z filmami i obrazami pornograficznymi. Etycy sztucznej inteligencji obawiają się, że deepfakes będą miały większe zastosowanie w tworzeniu fałszywej porno zemsty. Poza tym deepfakes mogą służyć do zastraszania i niszczenia reputacji niemal każdego, ponieważ mogą być wykorzystywane do wciągania ludzi w kontrowersyjne i kompromitujące scenariusze.

Firmy i specjaliści ds. cyberbezpieczeństwa wyrazili zaniepokojenie wykorzystywaniem deepfakes do ułatwiania oszustw, oszustw i wymuszeń. Podobno doszło do deepfake audio wykorzystywane do przekonania pracowników firmy w celu przekazania pieniędzy oszustom

Możliwe, że deepfakes mogą mieć szkodliwe skutki nawet inne niż wymienione powyżej. Deepfakes mogą potencjalnie podważyć ogólne zaufanie ludzi do mediów i utrudnić ludziom odróżnienie prawdziwych wiadomości od fałszywych wiadomości. Jeśli wiele filmów w Internecie jest fałszywych, rządom, firmom i innym podmiotom łatwiej jest poddać w wątpliwość uzasadnione kontrowersje i nieetyczne praktyki.

Jeśli chodzi o rządy, deepfakes mogą nawet stanowić zagrożenie dla funkcjonowania demokracji. Demokracja wymaga, aby obywatele mogli podejmować świadome decyzje dotyczące polityków w oparciu o wiarygodne informacje. Dezinformacja podważa procesy demokratyczne. Na przykład prezydent Gabonu Ali Bongo pojawił się w filmie, próbując uspokoić obywateli Gabonu. Zakładano, że prezydent źle się czuje od dłuższego czasu i jego nagłe pojawienie się prawdopodobnie fałszywe wideo zapoczątkowało próbę zamachu stanu. Prezydent Donald Trump stwierdził, że pojawiło się nagranie audio, na którym przechwala się, że łapie kobiety za genitalia był fałszywy, mimo że określił to również jako „rozmowę w szatni”. Książę Andrzej także twierdził, że zdjęcie dostarczone przez prawnika Emily Maitilis było fałszywe, choć pełnomocnik upierał się przy jego autentyczności.

Ostatecznie, chociaż istnieją uzasadnione zastosowania technologii deepfake, istnieje wiele potencjalnych szkód, które mogą wyniknąć z niewłaściwego wykorzystania tej technologii. Z tego powodu niezwykle ważne jest stworzenie i utrzymywanie metod ustalania autentyczności mediów.