Tankeledare
År 2024 kommer deepfakes att bli mainstream. Här är hur företag kan skydda sig

Sedan minst valet 2016, när oro kring desinformation bröt ut i det allmänna medvetandet, har experter varnat för deepfakes. Konsekvenserna av denna teknik var – och förblir – skrämmande. Den oreglerade spridningen av hyperrealistiska syntetiska medier utgör ett hot mot alla – från politiker till vanliga människor. I en redan explosiv miljö som kännetecknas av utbredd misstro, lovade deepfakes att elda på flammorna ytterligare.
Det visar sig att våra farhågor var för tidiga. Den tekniska expertisen som krävs för att faktiskt skapa deepfakes, kombinerat med deras ofta dåliga kvalitet, innebar att under de senaste två presidentvalscyklerna förblev de ett minimalt problem.
Men allt detta är på väg att förändras – förändras redan. Under de senaste två åren har generativ AI-teknik gått mainstream, vilket radikalt förenklar processen att skapa deepfakes för den genomsnittlige konsumenten. Samma innovationer har avsevärt ökat kvaliteten på deepfakes, så att i en blindtest skulle de flesta människor inte kunna skilja en förfalskad video från den riktiga.
Under detta år, särskilt, har vi börjat se tecken på hur denna teknik kan påverka samhället om inga ansträngningar görs för att bekämpa den. Förra året, till exempel, gick en AI-genererad bild av påven Franciskus som bar en ovanligt stilren rock viral, och togs av många för att vara äkta. Medan detta kan tyckas, på en nivå, vara en oskyldig bit kul, avslöjar det den farliga kraften i dessa deepfakes och hur svårt det kan vara att stoppa desinformation när den väl börjat spridas. Vi kan förvänta oss att hitta långt mindre roliga – och långt farligare – exempel på denna typ av virala förfalskningar i månader och år framöver.
Av denna anledning är det av yttersta vikt att organisationer av alla slag – från media till finans till regeringar till sociala medieplattformar – tar en proaktiv inställning till deepfake-detektion och innehållsautentiseringsverifiering. En kultur av tillit via skydd behöver etableras nu, innan en flodvåg av deepfakes kan tvätta bort vår gemensamma förståelse av verkligheten.
Att förstå deepfake-hotet
Innan vi går in på vad organisationer kan göra för att bekämpa denna ökning av deepfakes, är det värt att utveckla varför skyddverktyg är nödvändiga. Typiskt sett citerar de som är oroliga för deepfakes deras potentiella effekt på politik och samhällelig tillit. Dessa potentiella konsekvenser är extremt viktiga och bör inte försummas i något samtal om deepfakes. Men som det visar sig har denna teknikens uppkomst potentiellt ödesdigra effekter över hela den amerikanska ekonomin.
Ta till exempel försäkringar. Just nu uppgår den årliga försäkringsbedrägeriet i USA till 308,6 miljarder dollar – ett belopp som är ungefär en fjärdedel så stort som hela branschen. Samtidigt är de bakre operationerna i de flesta försäkringsbolag alltmer automatiserade, med 70 % av standardkraven som förväntas vara beröringsfria till 2025. Detta innebär att beslut fattas alltmer med minimal mänsklig inblandning: självbetjäning i frontenden och AI-faciliterad automation i backenden.
Ironiskt nog har den teknologi som har möjliggjort denna ökning av automation – dvs. maskinlärande och artificiell intelligens – garanterat dess exploatering av illvilliga aktörer. Det är nu enklare än någonsin för den genomsnittlige personen att manipulera krav – till exempel genom att använda generativa AI-program som Dall-E, Midjourney eller Stable Diffusion för att göra en bil se mer skadad ut än den är. Redan finns det appar som är specifikt utformade för detta ändamål, som Dude Your Car!, som tillåter användare att konstgjort skapa bucklor i foton av sina fordon.
Detsamma gäller officiella dokument, som nu kan manipuleras lätt – med fakturor, underwriting-värderingar och till och med signaturer justerade eller uppfunna i sin helhet. Denna förmåga är ett problem inte bara för försäkringsbolag utan över hela ekonomin. Det är ett problem för finansiella institutioner, som måste verifiera äktheten av en mängd olika dokument. Det är ett problem för detaljhandlare, som kan få en klagomål om att en produkt anlände defekt, åtföljd av en förfalskad bild.
Företag kan inte operera med denna grad av osäkerhet. En viss grad av bedrägeri är troligen alltid oundvikligt, men med deepfakes talar vi inte om bedrägeri på marginalen – vi talar om en potentiell epistemologisk katastrof där företag inte har något tydligt sätt att skilja sanning från fiktion, och därmed förlorar miljarder dollar på grund av denna förvirring.
Att bekämpa eld med eld: hur AI kan hjälpa
Så, vad kan göras för att bekämpa detta? Kanske inte oväntat ligger svaret i den teknologi som möjliggör deepfakes. Om vi vill stoppa denna plåga innan den samlar mer momentum, måste vi bekämpa eld med eld. AI kan hjälpa till att generera deepfakes – men den kan också, tack och lov, hjälpa till att identifiera dem automatiskt och i stor skala.
Med hjälp av rätt AI-verktyg kan företag automatiskt bestämma om en given fotograf, video eller dokument har manipulerats. Genom att bringa dussintals olika modeller till uppgiften att identifiera falska identifieringar, kan AI automatiskt tala om för företag exakt om en given fotograf eller video är misstänkt. Liksom de verktyg som företag redan använder för att automatisera dagliga operationer, kan dessa verktyg köras i bakgrunden utan att belasta redan ansträngda personal eller ta tid från viktiga projekt.
Om och när en fotograf identifieras som potentiellt ändrad, kan mänsklig personal varnas, och kan utvärdera problemet direkt, med hjälp av den information som tillhandahålls av AI. Med hjälp av deep-scan-analys kan den tala om för företag varför den tror att en fotograf troligen har manipulerats – peka till exempel på manuellt ändrade metadata, förekomsten av identiska bilder på webben, olika fotografiska oregelbundenheter etc.
Inget av detta är till för att förnedra de otroliga framstegen vi har sett i generativ AI-teknik under de senaste åren, som faktiskt har användbara och produktiva tillämpningar över hela branschen. Men den enorma kraften – för att inte tala om enkelheten – i denna framväxande tekniken garanterar nästan dess missbruk av de som försöker manipulera organisationer, antingen för personlig vinning eller för att så splittring i samhället.
Organisationer kan ha det bästa av båda världar: produktivitetsfördelarna med AI utan deepfakes negativa konsekvenser. Men för att uppnå detta krävs en ny grad av vaksamhet, särskilt med tanke på att generativ AI:s utdata bara blir mer övertygande, detaljerade och livsliknande för varje dag. Ju fortare organisationer vänder sin uppmärksamhet till detta problem, desto snabbare kan de skörda de fulla fördelarna med en automatiserad värld.












