škrbina Kaj so Deepfake? - Združi se.AI
Povežite se z nami

AI 101

Kaj so Deepfake?

mm
Posodobljeno on

Ker je deepfake lažje izdelati in so bolj plodni, se jim posveča več pozornosti. Deepfakes so postali osrednja točka razprav o etiki umetne inteligence, dezinformacijah, odprtosti informacij in interneta ter regulaciji. Splača se biti obveščen o deepfake-ih in imeti intuitivno razumevanje, kaj deepfake-i so. Ta članek bo pojasnil definicijo deepfake, preučil njihove primere uporabe, razpravljal o tem, kako je mogoče deepfake odkriti, in preučil posledice deepfake za družbo.

Kaj so Deepfake?

Preden nadaljujemo z razpravo o globokih ponaredkih, bi bilo koristno, da si vzamemo nekaj časa in razjasnimo kaj pravzaprav so »deepfake«.. Obstaja precejšnja zmeda glede izraza Deepfake in pogosto se izraz napačno uporablja za vse ponarejene medije, ne glede na to, ali gre za pristen deepfake ali ne. Da bi se kvalificiral kot Deepfake, mora biti zadevni lažni medij ustvarjen s sistemom strojnega učenja, natančneje z globoko nevronsko mrežo.

Ključna sestavina globokih ponaredkov je strojno učenje. Strojno učenje je računalnikom omogočilo razmeroma hitro in preprosto samodejno ustvarjanje videa in zvoka. Globoke nevronske mreže se urijo na posnetkih resnične osebe, da se mreža nauči, kako ljudje izgledajo in se gibljejo v ciljnih okoljskih pogojih. Izurjeno omrežje se nato uporabi na slikah drugega posameznika in dopolni z dodatnimi tehnikami računalniške grafike, da se združi nova oseba z izvirnim posnetkom. Algoritem kodirnika se uporablja za določanje podobnosti med izvirnim in ciljnim obrazom. Ko so skupne značilnosti obrazov izolirane, se uporabi drugi algoritem AI, imenovan dekoder. Dekoder pregleda kodirane (stisnjene) slike in jih rekonstruira na podlagi značilnosti izvirnih slik. Uporabljena sta dva dekoderja, eden na obrazu prvotnega subjekta in drugi na obrazu ciljne osebe. Za izvedbo zamenjave se dekoderju, ki je naučen na slikah osebe X, posredujejo slike osebe Y. Rezultat je, da je obraz osebe Y rekonstrukcija obrazne mimike in orientacije osebe X.

Trenutno še vedno traja precej časa, da se naredi deepfake. Ustvarjalec ponaredka mora porabiti veliko časa za ročno prilagajanje parametrov modela, saj bodo neoptimalni parametri povzročili opazne nepopolnosti in napake v sliki, ki razkrivajo pravo naravo ponaredka.

Čeprav se pogosto domneva, da je večina globokih ponaredkov narejenih z vrsto nevronske mreže, imenovane a generativno kontradiktorno omrežje (GAN), veliko (morda večina) globokih ponaredkov, ustvarjenih v teh dneh, se ne zanaša na GAN. Medtem ko so GAN-ji igrali vidno vlogo pri ustvarjanju zgodnjih deepfake, je večina deepfake videoposnetkov ustvarjenih z alternativnimi metodami, pravi Siwei Lyu iz SUNY Buffalo.

Za usposabljanje GAN je potrebna nesorazmerno velika količina podatkov za usposabljanje, GAN pa pogosto potrebujejo veliko dlje, da upodabljajo sliko v primerjavi z drugimi tehnikami ustvarjanja slik. GAN-ji so tudi boljši za ustvarjanje statičnih slik kot videoposnetki, saj GAN-ji težko ohranjajo skladnost od okvirja do okvirja. Veliko pogosteje je uporaba kodirnika in več dekoderjev za ustvarjanje globokih ponaredkov.

Za kaj se uporabljajo Deepfake?

Veliko globokih ponaredkov, najdenih na spletu, je pornografske narave. Glede na raziskavo, ki jo je opravilo podjetje Deeptrace, podjetje za umetno inteligenco, je bilo od vzorca približno 15,000 videoposnetkov deepfake, posnetih septembra 2019, približno 95 % pornografske narave. Skrb vzbujajoča posledica tega dejstva je, da ko bo tehnologija postala enostavnejša za uporabo, se lahko poveča število lažnih maščevalnih pornografij.

Vendar niso vsi globoki ponaredki pornografske narave. Obstaja več legitimnih načinov uporabe tehnologije deepfake. Audio deepfake tehnologija bi lahko ljudem pomagala pri oddajanju običajnih glasov, potem ko so poškodovani ali izgubljeni zaradi bolezni ali poškodbe. Deepfake je mogoče uporabiti tudi za skrivanje obrazov ljudi, ki so v občutljivih, potencialno nevarnih situacijah, hkrati pa še vedno omogočajo branje njihovih ustnic in izrazov. Tehnologijo Deepfake lahko potencialno uporabimo za izboljšanje sinhronizacije tujejezičnih filmov, pomoč pri popravilu starih in poškodovanih medijev in celo ustvarjanje novih stilov umetnosti.

Deepfakes, ki niso videoposnetki

Medtem ko večina ljudi pomisli na lažne videoposnetke, ko slišijo izraz »deepfake«, lažni videoposnetki nikakor niso edina vrsta lažnih medijev, ustvarjenih s tehnologijo deepfake. Tehnologija Deepfake se uporablja tudi za ustvarjanje foto in zvočnih ponaredkov. Kot že omenjeno, se GAN pogosto uporabljajo za ustvarjanje ponarejenih slik. Menijo, da je bilo veliko primerov lažnih profilov LinkedIn in Facebook, ki imajo slike profilov, ustvarjene z algoritmi deepfake.

Možno je ustvariti tudi zvočne globoke ponaredke. Globoke nevronske mreže so usposobljene za izdelavo glasovnih klonov/glasovnih preoblek različnih ljudi, vključno s slavnimi osebami in politiki. Eden znanih primerov avdio Deepfake je, ko je AI podjetje Dessa uporabil model AI, podprto z algoritmi, ki niso AI, za poustvarjanje glasu voditelja podcasta Joeja Rogana.

Kako prepoznati Deepfake

Ker globoke ponaredke postajajo vse bolj izpopolnjene, bo njihovo razlikovanje od pristnih medijev vedno težje. Trenutno obstajajo nekaj zgovornih znakov ljudje lahko iščejo, da ugotovijo, ali je videoposnetek potencialno deepfake, na primer slaba sinhronizacija ustnic, nenaravno gibanje, utripanje okoli roba obraza in ukrivljenost drobnih podrobnosti, kot so lasje, zobje ali odsevi. Drugi možni znaki globokega ponarejanja vključujejo manj kakovostne dele istega videa in nepravilno mežikanje z očmi.

Medtem ko lahko ti znaki trenutno pomagajo opaziti deepfake, ker tehnologija deepfake izboljšuje, so lahko edina možnost za zanesljivo odkrivanje deepfake druge vrste umetne inteligence, usposobljene za razlikovanje ponaredkov od resničnih medijev.

Podjetja za umetno inteligenco, vključno s številnimi velikimi tehnološkimi podjetji, raziskujejo metode odkrivanja globokih ponaredkov. Decembra lani se je začel izziv za odkrivanje globokih ponaredkov, ki so ga podprli trije tehnološki velikani: Amazon, Facebook in Microsoft. Raziskovalne skupine z vsega sveta so delale na metodah odkrivanja globokih ponaredkov in tekmovale v razvoju najboljših metod odkrivanja. Druge skupine raziskovalcev, kot je skupina združenih raziskovalcev iz Googla in Jigsawa, delajo na vrsti "obrazne forenzike", ki lahko zazna videoposnetke, ki so bili spremenjeni, ustvarjanje odprtokodnih naborov podatkov in spodbujanje drugih k razvoju metod za odkrivanje globokih ponaredkov. Zgoraj omenjena Dessa je delala na izpopolnjevanju tehnik zaznavanja deepfake, s čimer je poskušala zagotoviti, da modeli zaznavanja delujejo na videoposnetkih deepfake, ki jih najdemo v divjini (na internetu), in ne samo na vnaprej sestavljenih naborih podatkov za usposabljanje in testiranje, kot je nabor odprtokodnih podatkov. zagotovil Google.

Obstajajo tudi druge strategije ki se preiskujejo zaradi širjenja globokih ponaredkov. Ena od strategij je na primer preverjanje skladnosti videoposnetkov z drugimi viri informacij. Iščete lahko videoposnetke dogodkov, ki so morda posneti iz drugih zornih kotov, ali pa preverite podrobnosti v ozadju videoposnetka (kot so vremenski vzorci in lokacije) glede neskladnosti. Poleg tega, sistem spletne knjige Blockchain lahko registrira videoposnetke, ko so prvotno ustvarjeni, pri čemer ohrani njihov izvirni zvok in slike, tako da je mogoče izpeljane videoposnetke vedno preveriti glede manipulacije.

Konec koncev je pomembno, da so ustvarjene zanesljive metode za odkrivanje globokih ponaredkov in da so te metode odkrivanja v koraku z najnovejšim napredkom tehnologije globokih ponaredkov. Čeprav je težko natančno vedeti, kakšni bodo učinki globokih ponaredkov, bi lahko dezinformacije, če ni zanesljivih metod za odkrivanje globokih ponaredkov (in drugih oblik lažnih medijev), potencialno razbohotene in zmanjšale zaupanje ljudi v družbo in institucije.

Posledice Deepfake

Kakšne so nevarnosti, če dovolimo nenadzorovano širjenje globokih ponaredkov?

Eden največjih problemov, ki jih trenutno ustvarjajo deepfakes, je pornografija brez privolitve, ustvarjena s kombiniranjem obrazov ljudi s pornografskimi videoposnetki in slikami. Etike umetne inteligence skrbi, da bodo globoki ponaredili večjo uporabo pri ustvarjanju lažne maščevalne pornografije. Poleg tega bi lahko globoke ponaredke uporabili za ustrahovanje in škodovanje ugledu skoraj komur koli, saj bi jih lahko uporabili za postavljanje ljudi v kontroverzne in ogrožajoče scenarije.

Podjetja in strokovnjaki za kibernetsko varnost so izrazili zaskrbljenost glede uporabe globokih ponaredkov za omogočanje prevar, goljufij in izsiljevanja. Domnevno je bil globoko ponarejen zvok uporablja za prepričevanje zaposlenih podjetja za nakazilo denarja prevarantom

Možno je, da imajo globoke ponaredke škodljive učinke, ki presegajo zgoraj navedene. Deepfakes bi lahko spodkopali zaupanje ljudi v medije na splošno in ljudem otežili razlikovanje med resničnimi in lažnimi novicami. Če je veliko videoposnetkov v spletu ponarejenih, postane vladam, podjetjem in drugim subjektom lažje dvomiti o legitimnih sporih in neetičnih praksah.

Ko gre za vlade, lahko globoke ponaredke celo ogrožajo delovanje demokracije. Demokracija zahteva, da se državljani lahko premišljeno odločajo o politikih na podlagi zanesljivih informacij. Dezinformacije spodkopavajo demokratične procese. Na primer, predsednik Gabona, Ali Bongo, se je pojavil v videoposnetku, ki je poskušal pomiriti gabonske državljane. Domnevalo se je, da se predsednik slabo počuti dlje časa, njegov nenaden pojav v verjetno lažni videoposnetek je sprožil poskus državnega udara. Predsednik Donald Trump je trdil, da je zvočni posnetek, na katerem se hvali, kako grabi ženske za genitalije je bil lažen, kljub temu, da ga opisujejo tudi kot "govor v slačilnici". Tudi princ Andrew trdil, da je slika, ki jo je posredoval odvetnik Emily Maitilis, lažna, čeprav je odvetnik vztrajal pri njegovi pristnosti.

Konec koncev, čeprav obstajajo zakonite uporabe tehnologije deepfake, obstaja veliko potencialnih škod, ki lahko nastanejo zaradi zlorabe te tehnologije. Zaradi tega je izredno pomembno, da se ustvarijo in vzdržujejo metode za ugotavljanje pristnosti medijev.