stub Hva er Deepfakes? - Unite.AI
Kontakt med oss

AI 101

Hva er Deepfakes?

mm
oppdatert on

Ettersom deepfakes blir lettere å lage og mer produktive, blir mer oppmerksomhet rettet mot dem. Deepfakes har blitt fokuspunktet for diskusjoner som involverer AI-etikk, feilinformasjon, åpenhet av informasjon og internett, og regulering. Det lønner seg å være informert om deepfakes, og å ha en intuitiv forståelse av hva deepfakes er. Denne artikkelen vil klargjøre definisjonen av en deepfake, undersøke brukstilfellene deres, diskutere hvordan deepfakes kan oppdages og undersøke implikasjonene av deepfakes for samfunnet.

Hva er Deepfakes?

Før du fortsetter med å diskutere dype fakes videre, ville det være nyttig å ta litt tid og avklare hva "deepfakes" egentlig er. Det er en betydelig mengde forvirring angående begrepet Deepfake, og ofte brukes begrepet feilaktig på alle forfalskede medier, uavhengig av om det er en ekte deepfake eller ikke. For å kvalifisere som en Deepfake, må de aktuelle falske mediene genereres med et maskinlæringssystem, nærmere bestemt et dypt nevralt nettverk.

Nøkkelingrediensen i deepfakes er maskinlæring. Maskinlæring har gjort det mulig for datamaskiner å automatisk generere video og lyd relativt raskt og enkelt. Dype nevrale nettverk trenes på opptak av en ekte person for at nettverket skal lære hvordan folk ser ut og beveger seg under målmiljøforholdene. Det trente nettverket blir deretter brukt på bilder av en annen person og utvidet med ytterligere datagrafikkteknikker for å kombinere den nye personen med det originale opptakene. En koderalgoritme brukes til å bestemme likhetene mellom det opprinnelige ansiktet og målflaten. Når fellestrekkene til ansiktene er isolert, brukes en andre AI-algoritme kalt en dekoder. Dekoderen undersøker de kodede (komprimerte) bildene og rekonstruerer dem basert på funksjonene i de originale bildene. To dekodere brukes, en på det originale motivets ansikt og den andre på målpersonens ansikt. For at byttet skal kunne foretas, mates dekoderen som er trent på bilder av person X med bilder av person Y. Resultatet er at person Ys ansikt er rekonstruksjon over Person Xs ansiktsuttrykk og orientering.

Foreløpig tar det fortsatt en god del tid før en deepfake blir laget. Skaperen av falsken må bruke lang tid på å manuelt justere parametere til modellen, da suboptimale parametere vil føre til merkbare ufullkommenheter og bildefeil som gir bort forfalskningens sanne natur.

Selv om det ofte antas at de fleste deepfakes er laget med en type nevrale nettverk kalt a generative adversarial network (GAN), mange (kanskje de fleste) deepfakes opprettet i disse dager ikke stole på GANs. Mens GAN-er spilte en fremtredende rolle i opprettelsen av tidlige deepfakes, er de fleste deepfake-videoer laget gjennom alternative metoder, ifølge Siwei Lyu fra SUNY Buffalo.

Det tar en uforholdsmessig stor mengde treningsdata for å trene en GAN, og GAN-er tar ofte mye lengre tid å gjengi et bilde sammenlignet med andre bildegenereringsteknikker. GAN-er er også bedre for å generere statiske bilder enn video, da GAN-er har problemer med å opprettholde konsistens fra ramme til ramme. Det er mye mer vanlig å bruke en koder og flere dekodere for å lage deepfakes.

Hva brukes Deepfakes til?

Mange av deepfakene som finnes på nettet er pornografiske. I følge undersøkelser utført av Deeptrace, et AI-firma, av et utvalg på omtrent 15,000 2019 dypfalske videoer tatt i september 95, var omtrent XNUMX % av dem pornografisk. En urovekkende implikasjon av dette faktum er at etter hvert som teknologien blir enklere å bruke, kan hendelser med falsk hevnporno øke.

Imidlertid er ikke alle dype forfalskninger av pornografisk natur. Det er mer legitime bruksområder for deepfake-teknologi. Deepfake-teknologi kan hjelpe folk med å kringkaste sine vanlige stemmer etter at de er skadet eller tapt på grunn av sykdom eller skade. Deepfakes kan også brukes til å skjule ansiktene til mennesker som er i sensitive, potensielt farlige situasjoner, samtidig som de lar leppene og uttrykkene deres leses. Deepfake-teknologi kan potensielt brukes til å forbedre dubbingen på fremmedspråklige filmer, hjelpe til med reparasjon av gamle og skadede medier, og til og med skape nye kunststiler.

Ikke-videodeepfakes

Mens de fleste tenker på falske videoer når de hører begrepet "deepfake", er falske videoer på ingen måte den eneste typen falske medier produsert med deepfake-teknologi. Deepfake-teknologi brukes også til å lage foto- og lydforfalskninger. Som tidligere nevnt, brukes GAN-er ofte til å generere falske bilder. Det antas at det har vært mange tilfeller av falske LinkedIn- og Facebook-profiler som har profilbilder generert med dypfalske algoritmer.

Det er mulig å lage lyddeepfakes også. Dype nevrale nettverk er opplært til å produsere stemmekloner/stemmeskinn av forskjellige mennesker, inkludert kjendiser og politikere. Et kjent eksempel på en lyd-Deepfake er når AI-selskapet Dessa gjort bruk av en AI-modell, støttet av ikke-AI-algoritmer, for å gjenskape stemmen til podcastverten Joe Rogan.

Slik oppdager du Deepfakes

Ettersom deepfakes blir mer og mer sofistikerte, vil det bli tøffere og tøffere å skille dem fra ekte medier. Foreløpig er det noen få indikatorer folk kan se etter for å finne ut om en video potensielt er en deepfake, som dårlig leppesynkronisering, unaturlige bevegelser, flimring rundt kanten av ansiktet og forvrengning av fine detaljer som hår, tenner eller refleksjoner. Andre potensielle tegn på en deepfake inkluderer deler av lavere kvalitet av den samme videoen og uregelmessig blinking med øynene.

Selv om disse skiltene kan hjelpe en å oppdage en dypfalsk for øyeblikket, ettersom deepfake-teknologi forbedrer, kan det eneste alternativet for pålitelig deepfake-deteksjon være andre typer AI som er trent til å skille falske fra ekte medier.

Kunstig intelligens-selskaper, inkludert mange av de store teknologiselskapene, forsker på metoder for å oppdage dype forfalskninger. I desember i fjor ble det startet en deepfake-deteksjonsutfordring, støttet av tre teknologigiganter: Amazon, Facebook og Microsoft. Forskningsteam fra hele verden jobbet med metoder for å oppdage dype forfalskninger, og konkurrerte om å utvikle de beste deteksjonsmetodene. Andre grupper av forskere, som en gruppe kombinerte forskere fra Google og Jigsaw, jobber med en type "ansiktsetterforskning" som kan oppdage videoer som har blitt endret, gjør datasettene deres åpen kildekode og oppmuntre andre til å utvikle deepfake-deteksjonsmetoder. De nevnte Dessa har jobbet med å foredle deepfake-deteksjonsteknikker, og forsøkt å sikre at deteksjonsmodellene fungerer på deepfake-videoer funnet i naturen (ute på internett) i stedet for bare på forhåndskomponerte trenings- og testdatasett, som åpen kildekode-datasettet Google leverte.

Det er også andre strategier som blir undersøkt for å håndtere spredningen av deepfakes. For eksempel er det en strategi å sjekke videoer for samsvar med andre informasjonskilder. Det kan søkes etter video av hendelser som potensielt er tatt fra andre vinkler, eller bakgrunnsdetaljer for videoen (som værmønstre og steder) kan sjekkes for uoverensstemmelser. Utover dette, et Blockchain online reskontrosystem kunne registrere videoer når de først opprettes, og holde den originale lyden og bildene slik at avledede videoer alltid kan sjekkes for manipulasjon.

Til syvende og sist er det viktig at det lages pålitelige metoder for å oppdage dypfalske og at disse deteksjonsmetodene holder tritt med de nyeste fremskrittene innen dypfalsk teknologi. Selv om det er vanskelig å vite nøyaktig hva effektene av deepfakes vil være, hvis det ikke finnes pålitelige metoder for å oppdage deepfakes (og andre former for falske medier), kan feilinformasjon potensielt løpe ut og svekke folks tillit til samfunnet og institusjonene.

Implikasjoner av Deepfakes

Hva er farene ved å la dyp falsk spre seg ukontrollert?

Et av de største problemene som deepfakes skaper for tiden er pornografi uten samtykke, konstruert ved å kombinere folks ansikter med pornografiske videoer og bilder. AI-etikere er bekymret for at deepfakes vil se mer bruk i å lage falsk hevnporno. Utover dette kan deepfakes brukes til å mobbe og skade omdømmet til omtrent hvem som helst, siden de kan brukes til å sette folk inn i kontroversielle og kompromitterende scenarier.

Selskaper og nettsikkerhetsspesialister har uttrykt bekymring for bruken av dype forfalskninger for å legge til rette for svindel, svindel og utpressing. Angivelig har deepfake lyd vært brukes til å overbevise ansatte av et selskap for å overføre penger til svindlere

Det er mulig at deepfakes kan ha skadelige effekter selv utover de som er oppført ovenfor. Deepfakes kan potensielt erodere folks tillit til media generelt, og gjøre det vanskelig for folk å skille mellom ekte nyheter og falske nyheter. Hvis mange videoer på nettet er falske, blir det lettere for myndigheter, selskaper og andre enheter å så tvil om legitime kontroverser og uetisk praksis.

Når det gjelder regjeringer, kan deepfakes til og med utgjøre en trussel mot demokratiets funksjon. Demokrati krever at innbyggerne er i stand til å ta informerte beslutninger om politikere basert på pålitelig informasjon. Feilinformasjon undergraver demokratiske prosesser. For eksempel dukket Gabons president, Ali Bongo, opp i en video som forsøkte å berolige Gabon-borgerne. Presidenten ble antatt å være uvel i lang tid, og hans plutselige opptreden i en trolig falsk video startet et kuppforsøk. President Donald Trump hevdet at et lydopptak av ham som skryter av å ta kvinner i kjønnsorganene var falsk, til tross for at de også beskriver det som "garderobsprat". Prins Andrew også hevdet at et bilde levert av Emily Maitilis' advokat var falskt, selv om advokaten insisterte på ektheten.

Til syvende og sist, mens det er legitime bruksområder for dypfalsk teknologi, er det mange potensielle skader som kan oppstå fra misbruk av den teknologien. Av den grunn er det ekstremt viktig at metoder for å fastslå ektheten til media opprettes og vedlikeholdes.