škrbina Što su Deepfake? - Ujedinite se.AI
Povežite se s nama

AI 101

Što su Deepfakeovi?

mm
Ažurirano on

Kako deepfake postaje lakše napraviti i plodniji, više im se pažnje posvećuje. Deepfakeovi su postali središnja točka rasprava koje uključuju etiku umjetne inteligencije, dezinformacije, otvorenost informacija i interneta te regulativu. Isplati se informirati se o deepfakeovima i imati intuitivno razumijevanje što su deepfakeovi. Ovaj će članak razjasniti definiciju deepfakea, ispitati slučajeve njihove upotrebe, raspravljati o tome kako se deepfakeovi mogu otkriti i ispitati implikacije deepfakeova za društvo.

Što su Deepfake?

Prije nego što nastavimo raspravljati o deepfakeovima, bilo bi korisno odvojiti malo vremena i razjasniti što su zapravo "deepfakeovi".. Postoji znatna količina zabune u vezi s pojmom Deepfake i često se taj izraz pogrešno primjenjuje na bilo koji krivotvoreni medij, bez obzira na to radi li se o pravom deepfakeu ili ne. Kako bi se kvalificirao kao Deepfake, dotični lažni medij mora biti generiran sustavom strojnog učenja, točnije dubokom neuronskom mrežom.

Ključni sastojak deepfakeova je strojno učenje. Strojno učenje omogućilo je računalima relativno brzo i jednostavno automatsko generiranje videa i zvuka. Duboke neuronske mreže treniraju se na snimci stvarne osobe kako bi mreža naučila kako ljudi izgledaju i kreću se u ciljanim uvjetima okoline. Uvježbana mreža zatim se koristi na slikama drugog pojedinca i pojačava dodatnim tehnikama računalne grafike kako bi se kombinirala nova osoba s izvornom snimkom. Algoritam kodera koristi se za određivanje sličnosti između izvornog lica i ciljanog lica. Nakon što su zajedničke značajke lica izolirane, koristi se drugi AI algoritam koji se zove dekoder. Dekoder ispituje kodirane (komprimirane) slike i rekonstruira ih na temelju značajki izvornih slika. Koriste se dva dekodera, jedan na licu izvornog subjekta, a drugi na licu ciljne osobe. Kako bi se izvršila zamjena, dekoder obučen na slikama osobe X ubacuje slike osobe Y. Rezultat je da je lice osobe Y rekonstrukcija preko izraza lica i orijentacije osobe X.

Trenutačno je još uvijek potrebno dosta vremena da se napravi deepfake. Tvorac krivotvorine mora provesti dugo vremena ručno podešavajući parametre modela, budući da će neoptimalni parametri dovesti do primjetnih nesavršenosti i grešaka na slici koji odaju pravu prirodu krivotvorine.

Iako se često pretpostavlja da je većina deepfakeova napravljena s vrstom neuronske mreže koja se zove a generativna kontradiktorna mreža (GAN), mnogi (možda većina) deepfake-ova stvorenih ovih dana ne oslanjaju se na GAN-ove. Iako su GAN-ovi igrali istaknutu ulogu u stvaranju ranih deepfakeova, većina deepfake videa stvorena je alternativnim metodama, prema Siwei Lyu iz SUNY Buffala.

Potrebna je nesrazmjerno velika količina podataka za obuku kako bi se uvježbao GAN, a GAN-ovima je često potrebno mnogo više vremena da renderiraju sliku u usporedbi s drugim tehnikama generiranja slika. GAN-ovi su također bolji za generiranje statične slike od videa, jer GAN-ovi imaju poteškoća u održavanju dosljednosti od okvira do okvira. Puno je uobičajenije koristiti koder i više dekodera za stvaranje deepfakeova.

Za što se Deepfakeovi koriste?

Mnogi od deepfakeova pronađenih na internetu su pornografske prirode. Prema istraživanju koje je provela Deeptrace, tvrtka za umjetnu inteligenciju, od uzorka od približno 15,000 2019 deepfake videozapisa snimljenih u rujnu 95., približno XNUMX% njih bilo je pornografske prirode. Zabrinjavajuća implikacija ove činjenice je da bi, kako tehnologija postaje lakša za korištenje, mogli porasti slučajevi lažne pornografije iz osvete.

Međutim, nisu sve duboke krivotvorine pornografske prirode. Postoji više legitimnih upotreba tehnologije deepfake. Tehnologija audio deepfake mogla bi pomoći ljudima da emitiraju svoj uobičajeni glas nakon što su oštećeni ili izgubljeni zbog bolesti ili ozljede. Deepfake se također može koristiti za skrivanje lica ljudi koji se nalaze u osjetljivim, potencijalno opasnim situacijama, a istovremeno dopušta čitanje njihovih usana i izraza lica. Tehnologija Deepfake potencijalno se može koristiti za poboljšanje sinkronizacije filmova na stranim jezicima, pomoć u popravku starih i oštećenih medija, pa čak i stvaranje novih stilova umjetnosti.

Deepfakes koji nisu video

Dok većina ljudi pomisli na lažne videozapise kad čuju izraz "deepfake", lažni videozapisi nipošto nisu jedina vrsta lažnih medija proizvedenih tehnologijom deepfake. Tehnologija Deepfake koristi se i za izradu lažnih slika i zvuka. Kao što je ranije spomenuto, GAN-ovi se često koriste za generiranje lažnih slika. Smatra se da je bilo mnogo slučajeva lažnih LinkedIn i Facebook profila koji imaju profilne slike generirane algoritmima deepfake.

Moguće je stvoriti i zvučne deepfakeove. Duboke neuronske mreže osposobljene su za proizvodnju glasovnih klonova/glasovnih maski različitih ljudi, uključujući slavne osobe i političare. Jedan poznati primjer audio Deepfakea je kada je AI tvrtka Dessa koristio AI model, podržan algoritmima koji nisu AI, za rekreaciju glasa voditelja podcasta Joea Rogana.

Kako prepoznati Deepfake

Kako deepfakeovi postaju sve sofisticiraniji, njihovo razlikovanje od originalnih medija bit će sve teže i teže. Trenutno ih ima nekoliko izdajničkih znakova ljudi mogu potražiti kako bi utvrdili je li videozapis potencijalno deepfake, poput loše sinkronizacije usana, neprirodnih pokreta, titranja oko ruba lica i iskrivljenja finih detalja poput kose, zubi ili odraza. Drugi potencijalni znakovi deepfakea uključuju dijelove istog videa niže kvalitete i nepravilno treptanje očima.

Iako ovi znakovi mogu pomoći da se uoči deepfake u ovom trenutku, kako se tehnologija deepfake poboljšava, jedina opcija za pouzdano otkrivanje deepfakea mogu biti druge vrste umjetne inteligencije osposobljene za razlikovanje lažnjaka od stvarnih medija.

Tvrtke za umjetnu inteligenciju, uključujući mnoge velike tehnološke tvrtke, istražuju metode otkrivanja deepfakeova. Prošlog prosinca pokrenut je izazov otkrivanja lažnih lažnih lažnih sadržaja uz potporu tri tehnološka diva: Amazona, Facebooka i Microsofta. Istraživački timovi iz cijelog svijeta radili su na metodama otkrivanja deepfakeova, natječući se u razvoju najboljih metoda otkrivanja. Druge skupine istraživača, poput skupine kombiniranih istraživača iz Googlea i Jigsawa, rade na vrsti "forenzike lica" koja može otkriti videozapise koji su izmijenjeni, čineći svoje skupove podataka otvorenim kodom i poticanje drugih da razviju metode otkrivanja deepfakea. Gore spomenuta Dessa radila je na poboljšanju tehnika detekcije deepfakea, pokušavajući osigurati da modeli detekcije rade na deepfake videozapisima koji se nalaze u divljini (na internetu), a ne samo na unaprijed sastavljenim skupovima podataka za obuku i testiranje, poput skupa podataka otvorenog koda. Google je osigurao.

Tu su i druge strategije koji se istražuju radi rješavanja problema s širenjem lažnih lažnih sadržaja. Na primjer, provjera podudarnosti videozapisa s drugim izvorima informacija jedna je od strategija. Mogu se pretraživati ​​videozapisi događaja potencijalno snimljeni iz drugih kutova ili se mogu provjeriti nepodudarnosti pozadinskih detalja videozapisa (kao što su vremenski obrasci i lokacije). Izvan ovoga, Blockchain sustav mrežne knjige može registrirati video zapise kada su inicijalno stvoreni, zadržavajući njihov izvorni zvuk i slike tako da se izvedeni video zapisi uvijek mogu provjeriti radi manipulacije.

U konačnici, važno je da se stvore pouzdane metode otkrivanja deepfakeova i da te metode otkrivanja idu u korak s najnovijim napretkom tehnologije deepfakea. Iako je teško točno znati kakvi će biti učinci deepfakeova, ako ne postoje pouzdane metode otkrivanja deepfakeova (i drugih oblika lažnih medija), dezinformacije bi potencijalno mogle harati i umanjiti povjerenje ljudi u društvo i institucije.

Implikacije Deepfakea

Koje su opasnosti dopuštanja nekontroliranog širenja dubokog lažiranja?

Jedan od najvećih problema koje deepfake trenutno stvara je pornografija bez pristanka, stvorena kombiniranjem lica ljudi s pornografskim videozapisima i slikama. Etičari umjetne inteligencije zabrinuti su da će se deepfake više koristiti u stvaranju lažne osvetničke pornografije. Osim toga, deepfakeovi bi se mogli koristiti za maltretiranje i narušavanje ugleda bilo koga, budući da bi se mogli koristiti za postavljanje ljudi u kontroverzne i kompromitirajuće scenarije.

Tvrtke i stručnjaci za kibernetičku sigurnost izrazili su zabrinutost u vezi s korištenjem deepfakea za olakšavanje prijevara, prijevara i iznuda. Navodno, deepfake audio je koristi za uvjeravanje zaposlenika tvrtke za prijenos novca prevarantima

Moguće je da deepfakeovi mogu imati štetne učinke čak i izvan gore navedenih. Deepfakes bi potencijalno mogao narušiti povjerenje ljudi u medije općenito i otežati ljudima razlikovanje pravih vijesti od lažnih vijesti. Ako su mnogi videozapisi na webu lažni, vladama, tvrtkama i drugim subjektima postaje lakše baciti sumnju na legitimne kontroverze i neetičke postupke.

Kada je riječ o vladama, deepfakeovi mogu čak predstavljati prijetnju funkcioniranju demokracije. Demokracija zahtijeva da građani mogu donositi informirane odluke o političarima na temelju pouzdanih informacija. Dezinformacije potkopavaju demokratske procese. Na primjer, predsjednik Gabona, Ali Bongo, pojavio se u videu pokušavajući umiriti građane Gabona. Pretpostavljalo se da predsjednik nije dobro dobro duže vrijeme, a njegova iznenadna pojava u vjerojatno lažni video započeo je pokušaj državnog udara. Predsjednik Donald Trump tvrdio je da je audio snimka na kojoj se hvali kako hvata žene za genitalije bio lažan, unatoč tome što ga također opisuje kao "razgovor u svlačionici". Princ Andrija također tvrdio da je slika koju je dao odvjetnik Emily Maitilis lažna, iako je odvjetnik inzistirao na njegovoj autentičnosti.

U konačnici, iako postoji legitimna upotreba tehnologije deepfake, postoje mnoge potencijalne štete koje mogu proizaći iz zlouporabe te tehnologije. Iz tog je razloga iznimno važno stvoriti i održavati metode za utvrđivanje autentičnosti medija.