Tanke ledare
2024 kommer Deepfakes att bli mainstream. SÄ hÀr kan företag skydda sig sjÀlva

Ă tminstone sedan valet 2016, nĂ€r oron kring desinformation bröt upp i allmĂ€nhetens medvetande, har experter slagit larm om djupa förfalskningar. Implikationerna av denna teknik var â och förblir â skrĂ€mmande. Den okontrollerade spridningen av hyperrealistiska syntetiska medier utgör ett hot mot allaâ frĂ„n politiker till vanliga mĂ€nniskor. I en brĂ€nnbar miljö som redan kĂ€nnetecknas av utbredd misstro, lovade deepfakes att bara elda upp lĂ„gorna ytterligare.
Det visade sig att vÄra farhÄgor var för tidigt. Det tekniska kunnande som krÀvs för att faktiskt göra djupförfalskningar, tillsammans med deras ofta dÄliga kvalitet, gjorde att de under Ätminstone de tvÄ senaste presidentvalscyklerna förblev ett minimalt bekymmer.
Men allt det Àr pÄ vÀg att förÀndras - hÄller pÄ att förÀndras redan. Under de senaste tvÄ Ären har generativ AI-teknik kommit in i mainstream, vilket radikalt förenklar processen att skapa deepfakes för den genomsnittliga konsumenten. Samma innovationer har avsevÀrt höjt kvaliteten pÄ djupförfalskningar, sÄ att de flesta i ett blindtest inte skulle kunna skilja en manipulerad video frÄn den Àkta varan.
SĂ€rskilt i Ă„r har vi börjat se tecken pĂ„ hur den hĂ€r tekniken kan pĂ„verka samhĂ€llet om man inte gör anstrĂ€ngningar för att bekĂ€mpa den. Förra Ă„ret, till exempel, ett AI-genererat foto av pĂ„ven Franciskus iklĂ€dd en ovanligt snygg kappa blev viral, och ansĂ„gs av mĂ„nga vara autentiskt. Ăven om detta pĂ„ ett sĂ€tt kan verka som ett oskyldigt skoj, avslöjar det den farliga kraften hos dessa djupförfalskningar och hur svĂ„rt det kan vara att tygla felinformation nĂ€r den vĂ€l har börjat spridas. Vi kan förvĂ€nta oss att hitta betydligt mindre roliga â och betydligt farligare â exempel pĂ„ den hĂ€r typen av viral förfalskning under de kommande mĂ„naderna och Ă„ren.
Av denna anledning Ă€r det absolut nödvĂ€ndigt att organisationer av alla slag â frĂ„n media till finanser till regeringar till sociala medieplattformar â tar en proaktiv hĂ„llning mot deepfake-detektering och verifiering av innehĂ„llsĂ€kthet. En kultur av förtroende via skyddsĂ„tgĂ€rder mĂ„ste etableras nu, innan en flodvĂ„g av deepfakes kan tvĂ€tta bort vĂ„r gemensamma förstĂ„else av verkligheten.
FörstÄ det deepfake hotet
Innan vi gÄr in pÄ vad organisationer kan göra för att bekÀmpa denna ökning av deepfakes Àr det vÀrt att utveckla exakt varför skyddsverktyg Àr nödvÀndiga. Vanligtvis nÀmner de som Àr oroliga för deepfakes deras potentiella effekt pÄ politik och samhÀllets förtroende. Dessa potentiella konsekvenser Àr oerhört viktiga och bör inte försummas i nÄgon diskussion om deepfakes. Men det visar sig att uppkomsten av denna teknik har potentiellt allvarliga effekter pÄ flera sektorer av den amerikanska ekonomin.
Ta försĂ€kring, till exempel. Just nu uppgĂ„r Ă„rliga försĂ€kringsbedrĂ€gerier i USA till upp till 308.6 miljarder dollar â en siffra som Ă€r ungefĂ€r en fjĂ€rdedel sĂ„ stor som hela branschen. Samtidigt Ă€r back-end-verksamheten för de flesta försĂ€kringsbolag alltmer automatiserad, med 70 % av standardansprĂ„ken som berĂ€knas vara beröringsfria till 2025. Vad detta betyder Ă€r att besluten i allt högre grad fattas med minimal mĂ€nsklig inblandning: sjĂ€lvbetjĂ€ning pĂ„ front-end och AI-underlĂ€ttad automatisering pĂ„ baksidan.
Ironiskt nog har just den teknik som har möjliggjort denna ökning av automatisering â dvs maskininlĂ€rning och artificiell intelligens â garanterat att den utnyttjas av dĂ„liga aktörer. Det Ă€r nu enklare Ă€n nĂ„gonsin för den genomsnittliga personen att manipulera pĂ„stĂ„enden â till exempel genom att anvĂ€nda generativa AI-program som Dall-E, Midjourney eller Stable Diffusion för att fĂ„ en bil att se mer skadad ut Ă€n den Ă€r. Redan finns appar speciellt för detta Ă€ndamĂ„l, som Dude Your Car!, som lĂ„ter anvĂ€ndare pĂ„ konstgjord vĂ€g skapa bucklor i foton av sina fordon.
Detsamma gĂ€ller officiella dokument, som nu enkelt kan manipuleras â med fakturor, vĂ€rderingar av försĂ€kringsgivare och till och med signaturer som justeras eller uppfinns i stora mĂ€ngder. Denna förmĂ„ga Ă€r ett problem inte bara för försĂ€kringsbolag utan för hela ekonomin. Det Ă€r ett problem för finansinstitut, som mĂ„ste verifiera Ă€ktheten hos en mĂ€ngd olika dokument. Det Ă€r ett problem för Ă„terförsĂ€ljare, som kan fĂ„ ett klagomĂ„l om att en produkt anlĂ€nde defekt, Ă„tföljt av en förfalskad bild.
Företag kan helt enkelt inte arbeta med denna grad av osĂ€kerhet. En viss grad av bedrĂ€geri Ă€r sannolikt alltid oundvikligt, men med djupförfalskningar talar vi inte om bedrĂ€gerier pĂ„ marginalen â vi talar om en potentiell epistemologisk katastrof dĂ€r företag inte har nĂ„gra tydliga sĂ€tt att avgöra sanningen frĂ„n fiktion och slutar förlora miljarder dollar till denna förvirring.
BekÀmpa eld med eld: hur AI kan hjÀlpa
SĂ„ vad kan man göra för att bekĂ€mpa detta? Kanske inte överraskande ligger svaret i sjĂ€lva tekniken som underlĂ€ttar deepfakes. Om vi ââvill stoppa detta gissel innan det tar mer fart, mĂ„ste vi bekĂ€mpa eld med eld. AI kan hjĂ€lpa till att generera deepfakes â men det kan ocksĂ„, tack och lov, hjĂ€lpa till att identifiera dem automatiskt och i skala.
Med hjÀlp av rÀtt AI-verktyg kan företag automatiskt avgöra om ett visst fotografi, video eller dokument har manipulerats. Genom att ta dussintals olika modeller till uppgiften att falska identifiering, kan AI automatiskt tala om för företag exakt om ett visst fotografi eller video Àr misstÀnkt. Precis som de verktyg som företag redan anvÀnder för att automatisera den dagliga verksamheten, kan dessa verktyg köras i bakgrunden utan att belasta överanstrÀngd personal eller ta tid frÄn viktiga projekt.
Om och nÀr ett fotografi identifieras som potentiellt förÀndrat, kan mÀnsklig personal sedan larmas och kan utvÀrdera problemet direkt, med hjÀlp av informationen frÄn AI. Med hjÀlp av djupskanningsanalys kan den berÀtta för företag varför den tror att ett fotografi sannolikt har manipulerats - pekar till exempel pÄ manuellt Àndrad metadata, förekomsten av identiska bilder pÄ webben, olika fotografiska oegentligheter, etc.
Inget av detta Ă€r avsett att förringa de otroliga framsteg vi har sett inom generativ AI-teknik under de senaste Ă„ren, vilken verkligen har anvĂ€ndbara och produktiva tillĂ€mpningar inom olika branscher. Men sjĂ€lva styrkan â för att inte tala om enkelheten â hos denna framvĂ€xande teknik garanterar nĂ€stan att den missbrukas av dem som vill manipulera organisationer, vare sig det Ă€r för personlig vinning eller för att skapa samhĂ€llskaos.
Organisationer Kan fÄ det bÀsta av tvÄ vÀrldar: produktivitetsfördelarna med AI utan nackdelarna med allestÀdes nÀrvarande deepfakes. Men att göra det krÀver en ny grad av vaksamhet, sÀrskilt med tanke pÄ att generativ AI:s resultat bara blir mer övertygande, detaljerade och verklighetstrogna för varje dag. Ju tidigare organisationer riktar sin uppmÀrksamhet mot detta problem, desto tidigare kan de skörda alla fördelar med en automatiserad vÀrld.