výhonek Co jsou Deepfakes? - Spojte se.AI
Spojte se s námi

AI 101

Co jsou Deepfakes?

mm
aktualizováno on

Jak se deepfakes stávají snadnějším a plodnějším, věnuje se jim více pozornosti. Deepfakes se staly ústředním bodem diskusí týkajících se etiky umělé inteligence, dezinformací, otevřenosti informací a internetu a regulace. Vyplatí se být informován o deepfakes a mít intuitivní pochopení toho, co deepfakes jsou. Tento článek objasní definici deepfake, prozkoumá jejich případy použití, pojedná o tom, jak lze deepfake odhalit, a prozkoumá důsledky deepfake pro společnost.

Co jsou Deepfakes?

Než se pustíme do další diskuse o deepfakes, bylo by užitečné věnovat trochu času a ujasnit si to co „deepfakes“ vlastně jsou. Existuje značné množství zmatků ohledně termínu Deepfake a často je tento termín nesprávně aplikován na jakákoli falšovaná média, bez ohledu na to, zda se jedná o skutečný deepfake nebo ne. Aby bylo možné kvalifikovat se jako Deepfake, musí být dotyčná falešná média generována systémem strojového učení, konkrétně hlubokou neuronovou sítí.

Klíčovou složkou deepfakes je strojové učení. Strojové učení umožnilo počítačům automaticky generovat video a zvuk poměrně rychle a snadno. Hluboké neuronové sítě jsou trénovány na záběrech skutečné osoby, aby se síť naučila, jak lidé vypadají a pohybují se v cílových podmínkách prostředí. Natrénovaná síť je poté použita na snímky jiného jednotlivce a rozšířena o další počítačové grafické techniky, aby se nová osoba spojila s původním záznamem. K určení podobnosti mezi původní a cílovou tváří se používá kodérový algoritmus. Jakmile jsou společné rysy tváří izolovány, použije se druhý algoritmus umělé inteligence nazývaný dekodér. Dekodér prozkoumá zakódované (komprimované) obrázky a rekonstruuje je na základě vlastností v původních obrázcích. Používají se dva dekodéry, jeden na obličej původního objektu a druhý na obličej cílové osoby. Aby bylo možné provést výměnu, dekodér natrénovaný na obrazech osoby X se přivádí obrazy osoby Y. Výsledkem je, že obličej osoby Y je rekonstruován přes výrazy obličeje a orientaci osoby X.

V současné době stále trvá poměrně dlouho, než se vytvoří deepfake. Tvůrce padělku musí strávit dlouhou dobu ručním nastavováním parametrů modelu, protože neoptimální parametry povedou ke znatelným nedokonalostem a obrazovým závadám, které prozrazují skutečnou povahu padělku.

Ačkoli se často předpokládá, že většina deepfakeů se provádí pomocí typu neuronové sítě zvané a generativní adversariální síť (GAN), mnoho (možná většina) deepfakes vytvořených v dnešní době se nespoléhá na GAN. Zatímco GAN hrály významnou roli při vytváření raných deepfake, většina deepfake videí je vytvářena alternativními metodami, podle Siwei Lyu ze SUNY Buffalo.

Trénování GAN vyžaduje neúměrně velké množství trénovacích dat a GAN často trvá mnohem déle, než vykreslí obrázek ve srovnání s jinými technikami generování obrázků. GAN jsou také lepší pro generování statických obrázků než video, protože GAN mají potíže s udržováním konzistence mezi jednotlivými snímky. Mnohem běžnější je použití kodéru a více dekodérů k vytvoření deepfakes.

K čemu se Deepfakes používají?

Mnoho deepfakes nalezených online má pornografický charakter. Podle výzkumu společnosti Deeptrace, společnosti zabývající se umělou inteligencí, ze vzorku přibližně 15,000 2019 deepfake videí pořízených v září 95 bylo přibližně XNUMX % z nich pornografické povahy. Znepokojivým důsledkem této skutečnosti je, že jak se technologie stává snadněji použitelnou, může narůstat počet případů falešného porna z pomsty.

Ne všechny hluboké padělky však mají pornografický charakter. Existuje více legitimních použití pro technologii deepfake. Technologie hlubokého zkreslení zvuku by mohla lidem pomoci vysílat jejich běžné hlasy poté, co jsou poškozeny nebo ztraceny v důsledku nemoci nebo zranění. Deepfakes lze také použít pro skrytí tváří lidí, kteří se nacházejí v citlivých, potenciálně nebezpečných situacích, a přitom umožnit čtení jejich rtů a výrazů. Technologie Deepfake může být potenciálně použita ke zlepšení dabingu na cizojazyčné filmy, k pomoci při opravě starých a poškozených médií a dokonce k vytvoření nových uměleckých stylů.

Deepfakes jiné než video

Zatímco většina lidí si pod pojmem „deepfake“ představí falešná videa, falešná videa nejsou v žádném případě jediným druhem falešných médií produkovaných technologií deepfake. Technologie Deepfake se používá také k vytváření fotografických a zvukových padělků. Jak již bylo zmíněno, GAN se často používají ke generování falešných obrázků. Má se za to, že se vyskytlo mnoho případů falešných profilů LinkedIn a Facebook, které mají profilové obrázky generované pomocí hluboce falešných algoritmů.

Je také možné vytvářet zvukové deepfakes. Hluboké neuronové sítě jsou trénovány tak, aby produkovaly hlasové klony / hlasové skiny různých lidí, včetně celebrit a politiků. Jeden slavný příklad audio Deepfake je, když společnost AI Dessa využívá model AI, podporované algoritmy bez umělé inteligence, aby se znovu vytvořil hlas hostitele podcastu Joe Rogana.

Jak poznat Deepfakes

S tím, jak jsou deepfakes stále důmyslnější, bude jejich odlišení od pravých médií stále tvrdší. V současné době existují několik výmluvných znamení lidé mohou hledat, aby zjistili, zda je video potenciálně falešné, jako je špatná synchronizace rtů, nepřirozený pohyb, blikání kolem okraje obličeje a deformace jemných detailů, jako jsou vlasy, zuby nebo odlesky. Mezi další potenciální známky deepfake patří méně kvalitní části stejného videa a nepravidelné mrkání očima.

I když tyto příznaky mohou v tuto chvíli pomoci odhalit deepfake, protože technologie deepfake zlepšuje jedinou možnost spolehlivé detekce deepfake, mohou být jiné typy umělé inteligence vyškolené k rozlišení padělků od skutečných médií.

Společnosti zabývající se umělou inteligencí, včetně mnoha velkých technologických společností, zkoumají metody odhalování deepfakes. Loni v prosinci byla zahájena výzva k detekci deepfake podporovaná třemi technologickými giganty: Amazon, Facebook a Microsoft. Výzkumné týmy z celého světa pracovaly na metodách odhalování deepfakeů a předháněly se ve vývoji nejlepších metod detekce. Další skupiny výzkumníků, jako je skupina kombinovaných výzkumníků z Google a Jigsaw, pracují na typu „forenzní analýzy obličeje“, která dokáže detekovat videa, která byla pozměněna, vytváření jejich datových sad jako open source a povzbuzování ostatních, aby vyvinuli metody detekce deepfake. Výše zmíněná Dessa pracovala na vylepšení technik detekce deepfake a snažila se zajistit, aby modely detekce fungovaly na deepfake videích nalezených v divočině (na internetu), spíše než jen na předem sestavených tréninkových a testovacích datových sadách, jako je open-source datová sada. Google poskytl.

K dispozici jsou také jiné strategie které jsou vyšetřovány, aby se vypořádaly s šířením deepfakes. Jednou ze strategií je například kontrola souladu videí s jinými zdroji informací. Lze vyhledávat videa událostí, které mohou být pořízeny z jiných úhlů, nebo lze zkontrolovat, zda detaily na pozadí videa (jako počasí a místa) nejsou v rozporu. Kromě toho, blockchain online účetní systém mohli registrovat videa, když byla původně vytvořena, a uchovávat jejich původní zvuk a obrázky, takže odvozená videa lze vždy zkontrolovat, zda s nimi nelze manipulovat.

Nakonec je důležité, aby byly vytvořeny spolehlivé metody detekce deepfake a aby tyto metody detekce držely krok s nejnovějšími pokroky v technologii deepfake. I když je těžké přesně vědět, jaké budou účinky deepfakes, pokud neexistují spolehlivé metody odhalování deepfakes (a dalších forem falešných médií), dezinformace by se mohly potenciálně rozbujet a degradovat důvěru lidí ve společnost a instituce.

Důsledky Deepfakes

Jaká jsou nebezpečí, když dovolíte nekontrolovanému šíření deep fake?

Jedním z největších problémů, které deepfakes v současnosti vytvářejí, je nekonsensuální pornografie, vytvořená kombinací lidských tváří s pornografickými videi a obrázky. Etikové AI se obávají, že deepfakes budou mít větší využití při vytváření falešného porna o pomstě. Kromě toho by mohly být deepfakes použity k šikanování a poškození pověsti téměř kohokoli, protože by mohly být použity k umístění lidí do kontroverzních a kompromitujících scénářů.

Společnosti a specialisté na kybernetickou bezpečnost vyjádřili znepokojení nad používáním deepfakes k usnadnění podvodů, podvodů a vydírání. Údajně došlo k hlubokému falešnému zvuku slouží k přesvědčování zaměstnanců společnosti převádět peníze podvodníkům

Je možné, že deepfakes mohou mít škodlivé účinky i nad rámec výše uvedených. Deepfakes by mohly potenciálně narušit důvěru lidí v média obecně a ztížit lidem rozlišování mezi skutečnými zprávami a falešnými zprávami. Pokud je mnoho videí na webu falešných, je pro vlády, společnosti a další subjekty snazší zpochybnit legitimní kontroverze a neetické praktiky.

Pokud jde o vlády, deepfakes mohou dokonce představovat hrozbu pro fungování demokracie. Demokracie vyžaduje, aby občané byli schopni činit informovaná rozhodnutí o politicích na základě spolehlivých informací. Dezinformace podkopávají demokratické procesy. Například prezident Gabonu Ali Bongo se objevil na videu, které se snažilo uklidnit gabonské občany. Předpokládalo se, že prezident není v pořádku po dlouhou dobu a jeho náhlé objevení se pravděpodobně falešné video odstartovalo pokus o převrat. Prezident Donald Trump tvrdil, že zvukový záznam, na kterém se chlubí tím, jak chytal ženy za genitálie byl falešný, přestože to také popisuje jako „mluvu v šatně“. Princ Andrew také tvrdil, že obrázek poskytnutý právníkem Emily Maitilis byl falešný, ačkoli advokát trval na jeho pravosti.

V konečném důsledku, i když existuje legitimní využití technologie deepfake, existuje mnoho potenciálních škod, které mohou vzniknout ze zneužití této technologie. Z tohoto důvodu je nesmírně důležité, aby byly vytvořeny a udržovány metody k určení pravosti médií.