peň Čo sú Deepfakes? - Spojte sa.AI
Spojte sa s nami

AI 101

Čo sú Deepfakes?

mm
Aktualizované on

Keďže sa deepfakes stávajú jednoduchšími a plodnejšími, venuje sa im viac pozornosti. Deepfakes sa stali ústredným bodom diskusií o etike AI, dezinformáciách, otvorenosti informácií a internetu a regulácii. Oplatí sa byť informovaný o deepfakes a mať intuitívne pochopenie toho, čo deepfakes sú. Tento článok objasní definíciu deepfake, preskúma ich prípady použitia, prediskutuje, ako možno deepfake odhaliť, a preskúmať dôsledky deepfake pre spoločnosť.

Čo sú Deepfakes?

Predtým, ako budeme ďalej diskutovať o deepfakes, bolo by užitočné venovať chvíľu objasneniu čo „deepfakes“ vlastne sú. Pokiaľ ide o termín Deepfake, existuje značný zmätok a tento termín sa často nesprávne používa na akékoľvek falšované médiá bez ohľadu na to, či ide alebo nie je skutočným deepfakeom. Aby bolo možné kvalifikovať sa ako Deepfake, predmetné falošné médiá musia byť generované systémom strojového učenia, konkrétne hlbokou neurónovou sieťou.

Kľúčovou zložkou deepfakes je strojové učenie. Strojové učenie umožnilo počítačom automaticky generovať video a zvuk pomerne rýchlo a jednoducho. Hlboké neurónové siete sú trénované na záberoch skutočnej osoby, aby sa sieť naučila, ako ľudia vyzerajú a pohybujú sa v cieľových podmienkach prostredia. Natrénovaná sieť sa potom použije na obrázky iného jednotlivca a doplní sa o ďalšie techniky počítačovej grafiky, aby sa skombinovala nová osoba s pôvodným záznamom. Na určenie podobnosti medzi pôvodnou a cieľovou tvárou sa používa algoritmus kódovania. Keď sa izolujú spoločné črty tvárí, použije sa druhý algoritmus AI nazývaný dekodér. Dekodér skúma zakódované (komprimované) obrázky a rekonštruuje ich na základe vlastností v pôvodných obrázkoch. Používajú sa dva dekodéry, jeden na tvár pôvodného objektu a druhý na tvár cieľovej osoby. Aby sa vykonala výmena, do dekodéra natrénovaného na obrázky osoby X sa pridajú obrázky osoby Y. Výsledkom je, že tvár osoby Y je rekonštrukciou výrazov tváre a orientácie osoby X.

V súčasnosti trvá ešte pomerne veľa času, kým sa vytvorí deepfake. Tvorca falzifikátu musí stráviť dlhý čas manuálnym nastavovaním parametrov modelu, pretože suboptimálne parametre povedú k viditeľným nedokonalostiam a chybám v obraze, ktoré prezrádzajú skutočnú povahu falzifikátu.

Aj keď sa často predpokladá, že väčšina deepfake sa vytvára pomocou typu neurónovej siete nazývanej a generatívna adversariálna sieť (GAN), veľa (možno väčšina) deepfakes vytvorených v súčasnosti sa nespolieha na GAN. Zatiaľ čo siete GAN zohrávali významnú úlohu pri vytváraní skorých deepfake, väčšina deepfake videí sa vytvára prostredníctvom alternatívnych metód, podľa Siwei Lyu zo SUNY Buffalo.

Natrénovanie GAN si vyžaduje neúmerne veľké množstvo trénovacích údajov a GAN často trvá oveľa dlhšie vykreslenie obrázka v porovnaní s inými technikami generovania obrázkov. GAN sú tiež lepšie na generovanie statických obrázkov ako video, pretože GAN majú problémy so zachovaním konzistencie medzi snímkami. Oveľa bežnejšie je použitie kodéra a viacerých dekodérov na vytváranie hlbokých fake.

Na čo sa Deepfakes používajú?

Mnohé z deepfakes nájdených online majú pornografický charakter. Podľa výskumu spoločnosti Deeptrace, spoločnosti zaoberajúcej sa umelou inteligenciou, zo vzorky približne 15,000 2019 hlboko falošných videí nasnímaných v septembri 95 malo približne XNUMX % z nich pornografický charakter. Znepokojujúcim dôsledkom tejto skutočnosti je, že keď sa technológia stáva jednoduchšou na používanie, môže narastať počet prípadov falošného porna z pomsty.

Nie všetky hlboké falzifikáty však majú pornografický charakter. Existuje viac legitímnych použití technológie deepfake. Technológia deepfake zvuku by mohla pomôcť ľuďom vysielať ich bežné hlasy po tom, čo sú poškodené alebo stratené v dôsledku choroby alebo zranenia. Deepfakes možno použiť aj na skrytie tvárí ľudí, ktorí sa nachádzajú v citlivých, potenciálne nebezpečných situáciách, pričom stále umožňujú čítanie ich pier a výrazov. Technológia Deepfake môže byť potenciálne použitá na zlepšenie dabingu na cudzojazyčné filmy, na pomoc pri oprave starých a poškodených médií a dokonca aj na vytváranie nových umeleckých štýlov.

Deepfakes bez videa

Zatiaľ čo väčšina ľudí si predstaví falošné videá, keď počujú výraz „deepfake“, falošné videá v žiadnom prípade nie sú jediným druhom falošných médií vyrobených pomocou technológie deepfake. Technológia Deepfake sa používa aj na vytváranie falzifikátov fotografií a zvuku. Ako už bolo spomenuté, siete GAN sa často používajú na vytváranie falošných obrázkov. Predpokladá sa, že sa vyskytlo veľa prípadov falošných profilov LinkedIn a Facebook, ktoré mali profilové obrázky generované pomocou algoritmov deepfake.

Je tiež možné vytvárať hlboké falšovanie zvuku. Hlboké neurónové siete sú trénované tak, aby produkovali hlasové klony / hlasové vzhľady rôznych ľudí, vrátane celebrít a politikov. Jeden slávny príklad audio Deepfake je, keď spoločnosť AI Dessa využíval model AI, podporované algoritmami, ktoré nie sú AI, na obnovenie hlasu hostiteľa podcastu Joea Rogana.

Ako rozpoznať Deepfakes

Ako sa deepfakes stávajú čoraz sofistikovanejšími, ich odlíšenie od pravých médií bude čoraz tvrdšie. V súčasnosti existuje niekoľko výpovedných znakov ľudia môžu hľadať, aby zistili, či je video potenciálne falšované, napríklad slabá synchronizácia pier, neprirodzený pohyb, blikanie okolo okraja tváre a deformácia jemných detailov, ako sú vlasy, zuby alebo odrazy. Medzi ďalšie potenciálne znaky hlbokého falšovania patria časti rovnakého videa v nižšej kvalite a nepravidelné žmurkanie očami.

Aj keď tieto znaky môžu v súčasnosti pomôcť odhaliť deepfake, keďže technológia deepfake vylepšuje jedinú možnosť spoľahlivej detekcie deepfake, môžu byť iné typy AI vyškolené na rozlíšenie falzifikátov od skutočných médií.

Spoločnosti s umelou inteligenciou, vrátane mnohých veľkých technologických spoločností, skúmajú metódy odhaľovania deepfake. Minulý rok v decembri bola spustená výzva na detekciu deepfake podporovaná tromi technologickými gigantmi: Amazon, Facebook a Microsoft. Výskumné tímy z celého sveta pracovali na metódach odhaľovania hlbokých falzifikátov a súťažili o vývoj najlepších metód detekcie. Ďalšie skupiny výskumníkov, ako napríklad skupina kombinovaných výskumníkov z Google a Jigsaw, pracujú na type „forenznej analýzy tváre“, ktorá dokáže odhaliť videá, ktoré boli pozmenené, vytváranie svojich súborov údajov ako open source a povzbudzovanie ostatných, aby vyvinuli metódy detekcie hlbokých falošných správ. Vyššie uvedená Dessa pracovala na zdokonalení techník detekcie hlbokých falošných správ a snažila sa zabezpečiť, aby modely detekcie fungovali na videách s hlbokým falošným obsahom nájdeným vo voľnej prírode (na internete), a nie iba na vopred zostavených tréningových a testovacích súboroch údajov, ako je napríklad súbor údajov s otvoreným zdrojom. Poskytol Google.

K dispozícii sú tiež iné stratégie ktoré sa vyšetrujú, aby sa vysporiadali s šírením deepfakes. Jednou zo stratégií je napríklad kontrola zhody videí s inými zdrojmi informácií. Je možné vyhľadávať videá udalostí potenciálne nasnímaných z iných uhlov alebo je možné skontrolovať nezrovnalosti v detailoch na pozadí videa (ako sú počasie a miesta). Okrem toho, blockchain online účtovný systém mohli zaregistrovať videá, keď boli pôvodne vytvorené, pričom uchovávali ich pôvodný zvuk a obrázky, aby bolo možné vždy skontrolovať manipuláciu s odvodenými videami.

V konečnom dôsledku je dôležité, aby boli vytvorené spoľahlivé metódy detekcie deepfake a aby tieto metódy detekcie držali krok s najnovším pokrokom v technológii deepfake. Aj keď je ťažké presne vedieť, aké budú účinky deepfakes, ak neexistujú spoľahlivé metódy odhaľovania deepfakes (a iných foriem falošných médií), dezinformácie by sa potenciálne mohli rozmnožiť a znížiť dôveru ľudí v spoločnosť a inštitúcie.

Dôsledky Deepfakes

Aké sú nebezpečenstvá nekontrolovaného šírenia deep fake?

Jedným z najväčších problémov, ktoré deepfakes v súčasnosti vytvárajú, je nekonsenzuálna pornografia, vytvorená kombináciou tvárí ľudí s pornografickými videami a obrázkami. Etikovia AI sa obávajú, že deepfakes budú mať väčšie využitie pri vytváraní falošného porna z pomsty. Okrem toho by sa deepfakes mohli použiť na šikanovanie a poškodenie reputácie takmer kohokoľvek, pretože by sa mohli použiť na umiestnenie ľudí do kontroverzných a kompromitujúcich scenárov.

Spoločnosti a špecialisti na kybernetickú bezpečnosť vyjadrili znepokojenie nad používaním deepfakes na uľahčenie podvodov, podvodov a vydierania. Údajne došlo k hlbokému falošnému zvuku používané na presviedčanie zamestnancov spoločnosti na prevod peňazí podvodníkom

Je možné, že deepfakes môžu mať škodlivé účinky aj nad rámec tých, ktoré sú uvedené vyššie. Deepfakes by mohli potenciálne narušiť dôveru ľudí v médiá vo všeobecnosti a sťažiť ľuďom rozlišovanie medzi skutočnými a falošnými správami. Ak je veľa videí na webe falošných, pre vlády, spoločnosti a iné subjekty je jednoduchšie spochybňovať legitímne polemiky a neetické praktiky.

Pokiaľ ide o vlády, deepfakes môžu dokonca predstavovať hrozbu pre fungovanie demokracie. Demokracia vyžaduje, aby občania boli schopní prijímať informované rozhodnutia o politikoch na základe spoľahlivých informácií. Dezinformácie podkopávajú demokratické procesy. Napríklad prezident Gabonu Ali Bongo sa objavil na videu, ktoré sa pokúšalo upokojiť obyvateľov Gabonu. Predpokladalo sa, že prezident sa dlho necíti dobre a jeho náhly príchod pravdepodobne falošné video odštartovalo pokus o prevrat. Prezident Donald Trump tvrdil, že zvukový záznam, na ktorom sa chváli tým, ako chytal ženy za pohlavné orgány bol falošný, napriek tomu, že to tiež označuje ako „hovor v šatni“. Aj princ Andrew tvrdil, že obrázok poskytnutý právnikom Emily Maitilis je falošný, hoci advokát trval na jeho pravosti.

V konečnom dôsledku, aj keď existuje legitímne využitie technológie deepfake, existuje veľa potenciálnych škôd, ktoré môžu vzniknúť zo zneužitia tejto technológie. Z tohto dôvodu je mimoriadne dôležité, aby boli vytvorené a udržiavané metódy na určenie pravosti médií.