stub Vad är Deepfakes? - Unite.AI
Anslut dig till vårt nätverk!

AI 101

Vad är Deepfakes?

mm
Uppdaterad on

När deepfakes blir lättare att göra och mer produktiva, ägnas mer uppmärksamhet åt dem. Deepfakes har blivit fokuspunkten i diskussioner som involverar AI-etik, desinformation, öppenhet för information och internet och reglering. Det lönar sig att vara informerad om deepfakes och att ha en intuitiv förståelse för vad deepfakes är. Den här artikeln kommer att förtydliga definitionen av en deepfake, undersöka deras användningsfall, diskutera hur deepfakes kan upptäckas och undersöka konsekvenserna av deepfakes för samhället.

Vad är Deepfakes?

Innan vi fortsätter att diskutera deepfakes ytterligare skulle det vara bra att ta lite tid och förtydliga vad "deepfakes" egentligen är. Det finns en stor mängd förvirring angående termen Deepfake, och ofta används termen felaktigt på alla förfalskade medier, oavsett om det är en äkta deepfake eller inte. För att kvalificera sig som en Deepfake måste de förfalskade medierna i fråga genereras med ett maskininlärningssystem, närmare bestämt ett djupt neuralt nätverk.

Den viktigaste ingrediensen i deepfakes är maskininlärning. Maskininlärning har gjort det möjligt för datorer att automatiskt generera video och ljud relativt snabbt och enkelt. Djupa neurala nätverk tränas på bilder av en verklig person för att nätverket ska lära sig hur människor ser ut och rör sig under målmiljöförhållandena. Det tränade nätverket används sedan på bilder av en annan individ och utökas med ytterligare datorgrafiktekniker för att kombinera den nya personen med originalfilmen. En kodaralgoritm används för att bestämma likheterna mellan det ursprungliga ansiktet och målytan. När de gemensamma egenskaperna för ansikten har isolerats, används en andra AI-algoritm som kallas en avkodare. Avkodaren undersöker de kodade (komprimerade) bilderna och rekonstruerar dem baserat på egenskaperna i originalbilderna. Två avkodare används, en på originalobjektets ansikte och den andra på målpersonens ansikte. För att bytet ska kunna göras matas avkodaren som tränas på bilder av person X bilder av person Y. Resultatet är att person Y:s ansikte är rekonstruktion över Person X:s ansiktsuttryck och orientering.

För närvarande tar det fortfarande ganska lång tid för en deepfake att göras. Skaparen av falskt måste spendera lång tid på att manuellt justera parametrar för modellen, eftersom suboptimala parametrar kommer att leda till märkbara brister och bildfel som ger bort falskhetens sanna natur.

Även om det ofta antas att de flesta deepfakes görs med en typ av neurala nätverk som kallas a Generative Adversarial Network (GAN), många (kanske de flesta) deepfakes som skapas nuförtiden förlitar sig inte på GAN. Medan GAN spelade en framträdande roll i skapandet av tidiga deepfake, skapas de flesta deepfake-videor genom alternativa metoder, enligt Siwei Lyu från SUNY Buffalo.

Det krävs en oproportionerligt stor mängd träningsdata för att träna ett GAN, och GAN:er tar ofta mycket längre tid att rendera en bild jämfört med andra bildgenereringstekniker. GAN:er är också bättre för att generera statiska bilder än video, eftersom GAN:er har svårt att upprätthålla konsistens från bildruta till bildruta. Det är mycket vanligare att använda en kodare och flera avkodare för att skapa deepfakes.

Vad används Deepfakes till?

Många av de deepfakes som hittas på nätet är pornografiska till sin natur. Enligt undersökningar gjorda av Deeptrace, ett AI-företag, av ett urval av cirka 15,000 2019 deepfake-videor som togs i september 95, var cirka XNUMX % av dem pornografiska till sin natur. En oroande implikation av detta faktum är att när tekniken blir lättare att använda, kan incidenter med falsk hämndporr öka.

Men alla djupa förfalskningar är inte pornografiska till sin natur. Det finns mer legitima användningsområden för deepfake-teknik. Audio deepfake-teknik kan hjälpa människor att sända sina vanliga röster efter att de har skadats eller förlorats på grund av sjukdom eller skada. Deepfakes kan också användas för att dölja ansiktena på människor som befinner sig i känsliga, potentiellt farliga situationer, samtidigt som deras läppar och uttryck kan läsas. Deepfake-teknologi kan potentiellt användas för att förbättra dubbningen på främmande språkfilmer, hjälpa till med reparation av gamla och skadade medier och till och med skapa nya konststilar.

Deepfakes utan video

Medan de flesta människor tänker på falska videor när de hör termen "deepfake", är falska videor inte på något sätt den enda sortens falska media som produceras med deepfake-teknik. Deepfake-teknik används också för att skapa foto- och ljudförfalskningar. Som tidigare nämnts används GAN ofta för att skapa falska bilder. Man tror att det har förekommit många fall av falska LinkedIn- och Facebook-profiler som har profilbilder genererade med deepfake-algoritmer.

Det är möjligt att skapa ljuddeepfakes också. Djupa neurala nätverk är tränade för att producera röstkloner/röstskinn av olika människor, inklusive kändisar och politiker. Ett känt exempel på en ljud-Deepfake är när AI-företaget Dessa använde sig av en AI-modell, stöds av icke-AI-algoritmer, för att återskapa poddvärden Joe Rogans röst.

Hur man upptäcker Deepfakes

När deepfakes blir mer och mer sofistikerade, kommer det att bli tuffare och tuffare att skilja dem från äkta media. För närvarande finns det några tecken människor kan leta efter för att ta reda på om en video potentiellt är en djupförfalskning, som dålig läppsynkronisering, onaturliga rörelser, flimmer runt ansiktskanten och skevhet av fina detaljer som hår, tänder eller reflexer. Andra potentiella tecken på en deepfake inkluderar delar av lägre kvalitet av samma video och oregelbunden blinkning med ögonen.

Även om dessa tecken kan hjälpa en att upptäcka en deepfake för tillfället, eftersom deepfake-tekniken förbättrar kan det enda alternativet för tillförlitlig deepfake-detektering vara andra typer av AI som tränats för att skilja förfalskningar från riktiga medier.

Företag med artificiell intelligens, inklusive många av de stora teknikföretagen, forskar om metoder för att upptäcka deepfakes. I december förra året startade en deepfake-detektionsutmaning, med stöd av tre teknikjättar: Amazon, Facebook och Microsoft. Forskarlag från hela världen arbetade med metoder för att upptäcka djupförfalskningar, och tävlade om att utveckla de bästa detekteringsmetoderna. Andra grupper av forskare, som en grupp kombinerade forskare från Google och Jigsaw, arbetar med en typ av "ansiktskriminalteknik" som kan upptäcka videor som har ändrats, gör sina datauppsättningar öppen källkod och uppmuntra andra att utveckla deepfake-detekteringsmetoder. Ovannämnda Dessa har arbetat med att förfina tekniker för deepfake-detektering, och försökt säkerställa att detektionsmodellerna fungerar på deepfake-videor som finns i naturen (på internet) snarare än bara på förkomponerade utbildnings- och testdatauppsättningar, som datauppsättningen med öppen källkod Google tillhandahållit.

Det finns också andra strategier som undersöks för att hantera spridningen av deepfakes. Till exempel är det en strategi att kontrollera att videor överensstämmer med andra informationskällor. Sökningar kan göras efter video av händelser som eventuellt är tagna från andra vinklar, eller bakgrundsdetaljer för videon (som vädermönster och platser) kan kontrolleras för inkonsekvenser. Utöver detta, ett blockchain online-reskontrasystem kunde registrera videor när de skapas från början, hålla deras ursprungliga ljud och bilder så att härledda videor alltid kan kontrolleras för manipulation.

I slutändan är det viktigt att pålitliga metoder för att upptäcka deepfakes skapas och att dessa detektionsmetoder hänger med i de senaste framstegen inom deepfake-tekniken. Även om det är svårt att veta exakt vad effekterna av djupförfalskningar kommer att bli, om det inte finns tillförlitliga metoder för att upptäcka djupförfalskningar (och andra former av falska medier), kan desinformation potentiellt spridas och försämra människors förtroende för samhället och institutionerna.

Implikationer av Deepfakes

Vilka är farorna med att tillåta djupt falskt att spridas okontrollerat?

Ett av de största problemen som deepfakes skapar för närvarande är pornografi utan samtycke, konstruerad genom att kombinera människors ansikten med pornografiska videor och bilder. AI-etiker är oroliga för att deepfakes kommer att se mer användning i skapandet av falsk hämndporr. Utöver detta kan deepfakes användas för att mobba och skada anseendet för nästan vem som helst, eftersom de kan användas för att placera människor i kontroversiella och kompromissande scenarier.

Företag och cybersäkerhetsspecialister har uttryckt oro över användningen av deepfakes för att underlätta bedrägerier, bedrägerier och utpressning. Påstås ha djupfalskt ljud varit används för att övertyga anställda av ett företag att överföra pengar till bedragare

Det är möjligt att deepfakes kan ha skadliga effekter även utöver de som anges ovan. Deepfakes kan potentiellt urholka människors förtroende för media i allmänhet och göra det svårt för människor att skilja mellan riktiga nyheter och falska nyheter. Om många videor på webben är falska blir det lättare för regeringar, företag och andra enheter att tvivla på legitima kontroverser och oetiska metoder.

När det gäller regeringar kan deepfakes till och med utgöra ett hot mot demokratins funktion. Demokrati kräver att medborgarna kan fatta välgrundade beslut om politiker utifrån tillförlitlig information. Desinformation undergräver demokratiska processer. Till exempel dök Gabons president, Ali Bongo, upp i en video som försökte lugna Gabons medborgare. Presidenten antogs vara sjuk under lång tid, och hans plötsliga framträdande i en sannolikt falsk video startade ett kuppförsök. President Donald Trump hävdade att en ljudinspelning av honom skryter om att han grep kvinnor i könsorganen var falsk, trots att man också beskriver det som "omklädningsrumssnack". Prins Andrew också hävdade att en bild från Emily Maitilis advokat var falsk, även om advokaten insisterade på dess äkthet.

I slutändan, även om det finns legitima användningsområden för deepfake-teknik, finns det många potentiella skador som kan uppstå från missbruk av den tekniken. Av den anledningen är det oerhört viktigt att metoder för att fastställa medias äkthet skapas och underhålls.

Bloggare och programmerare med specialiteter inom Maskininlärning och Deep Learning ämnen. Daniel hoppas kunna hjälpa andra att använda kraften i AI för socialt bästa.