Connect with us

I 2024 bliver Deepfakes mainstream. Her er, hvordan virksomheder kan beskytte sig

Tankeledere

I 2024 bliver Deepfakes mainstream. Her er, hvordan virksomheder kan beskytte sig

mm

Siden mindst valget i 2016, hvor bekymringer om desinformation eksploderede i offentlighedens bevidsthed, har eksperter advaret om deepfakes. Konsekvenserne af denne teknologi var – og er stadig – skræmmende. Den ukontrollerede spredning af hyperrealistisk syntetisk medie udgør en trussel mod alle – fra politikere til almindelige mennesker. I en allerede eksplosiv omgangskreds, der kendetegnes af omfattende mistillid, lovede deepfakes kun at anstikke flammerne yderligere.

Det viser sig, at vores frygt var forhastet. Den tekniske ekspertise, der kræves for at lave deepfakes, kombineret med deres ofte lave kvalitet, betød, at i mindst de sidste to præsidentvalgkredse var de en minimal bekymring.

Men alt dette er på vej til at ændre sig – ændrer sig allerede. Over de sidste to år er generativ AI-teknologi gået mainstream, og processen med at lave deepfakes er blevet radikalt simplificeret for den gennemsnitlige forbruger. De samme innovationer har betydeligt øget kvaliteten af deepfakes, således at i en blindtest ville de fleste mennesker være ude af stand til at skelne mellem en manipuleret video og den ægte vare.

I år er vi begyndt at se tegn på, hvordan denne teknologi kan påvirke samfundet, hvis ikke noget gøres for at bekæmpe den. Sidste år, for eksempel, gik et AI-genereret billede af Pave Frans, der bar en usædvanligt stylish frakke, viral, og blev taget for at være ægte af mange. Selv om dette kan synes harmløst på en måde, afslører det den farlige potentiale i disse deepfakes og hvor svært det kan være at standse desinformation, når den først er begyndt at sprede. Vi kan forvente at finde langt færre morsomme – og langt farligere – eksempler på denne type af viralt bedrag i månederne og årene, der kommer.

Af denne grund er det afgørende, at organisationer af alle slags – fra medier til finans til regeringer til sociale medieplatforme – tager en proaktiv holdning til deepfake-detektion og verificering af indholdets ægthed. En kultur af tillid via sikkerhedsforanstaltninger skal etableres nu, før en bølge af deepfakes kan skylle vores fælles forståelse af virkeligheden væk.

At forstå deepfake-truslen

Før vi dykker ned i, hvad organisationer kan gøre for at bekæmpe denne opblomstring af deepfakes, er det værd at uddybe, hvorfor sikkerhedsredskaber er nødvendige. Typisk citerer de, der er bekymrede for deepfakes, deres potentielle effekt på politik og samfundsmistillid. Disse potentielle konsekvenser er ekstremt vigtige og bør ikke ignoreres i nogen samtale om deepfakes. Men som det viser sig, har opblomstringen af denne teknologi potentielt katastrofale konsekvenser på tværs af multiple sektorer i den amerikanske økonomi.

Tag for eksempel forsikring. Lige nu udgør årlig forsikringssvindel i USA 308,6 milliarder dollar – et tal, der er omtrent en fjerdedel så stort som hele industrien. Samtidig er bag-end-operationerne i de fleste forsikringsselskaber i stigende grad automatiseret, og 70 % af standardkrav forventes at være berørt af 2025. Dette betyder, at beslutninger tages med minimal menneskelig indgriben: selvbetjening i frontenden og AI-faciliteret automation i bagenden.

Ironisk nok har den teknologi, der har muliggjort denne øgning i automation – dvs. maskinel læring og kunstig intelligens – også garanteret dens udnyttelse af onde aktører. Det er nu nemmere end nogensinde for den gennemsnitlige person at manipulere krav – for eksempel ved at bruge generative AI-programmer som Dall-E, Midjourney eller Stable Diffusion til at gøre en bil se mere beskadiget, end den er. Allerede eksisterer apps specifikt til dette formål, som Dude Your Car!, der tillader brugere at kunstigt skabe buler i billeder af deres køretøjer.

Det samme gælder for officielle dokumenter, der nu kan manipuleres let – med fakturaer, underwriting-vurderinger og endda underskrifter justeret eller opfundet hel og holdent. Dette er et problem, ikke kun for forsikringsselskaber, men på tværs af økonomien. Det er et problem for finansielle institutioner, der skal verificere ægthed af en bred vifte af dokumenter. Det er et problem for detailhandlere, der kan modtage en klage om, at et produkt ankom defekt, ledsaget af et manipuleret billede.

Virksomheder kan simpelthen ikke fungere med denne grad af usikkerhed. En vis grad af svindel er sandsynligvis altid uundgåelig, men med deepfakes taler vi ikke om svindel på marginerne – vi taler om en potentiel epistemologisk katastrofe, hvor virksomheder ikke har nogen klar måde at skelne sandheden fra fiktionen på, og ender med at tabe milliarder af dollars på denne forvirring.

At bekæmpe ild med ild: hvordan AI kan hjælpe

Så, hvad kan gøres for at bekæmpe dette? Måske ikke overraskende ligger svaret i den teknologi, der faciliterer deepfakes. Hvis vi vil stoppe denne plage, før den får endnu mere momentum, må vi bekæmpe ild med ild. AI kan hjælpe med at generere deepfakes – men den kan også, heldigvis, hjælpe med at identificere dem automatisk og i stor skala.

Ved at bruge de rigtige AI-værktøjer kan virksomheder automatisk bestemme, om et givent billede, video eller dokument er blevet manipuleret. Ved at bringe dusinvis af forskellige modeller til opgaven med at identificere falske billeder, kan AI automatisk fortælle virksomhederne præcis, om et givent billede eller video er mistænkeligt. Ligesom de værktøjer, virksomheder allerede udruller for at automatisere daglige operationer, kan disse værktøjer køre i baggrunden uden at belaste overbelastede medarbejdere eller tage tid væk fra vigtige projekter.

Hvis og når et billede identificeres som potentielt ændret, kan det menneskelige personale så blive advaret, og kan evaluere problemet direkte, hjulpet af den information, der er leveret af AI. Ved at bruge dyb-scanning kan det fortælle virksomhederne hvorfor det tror, et billede sandsynligvis er blevet manipuleret – og pege på, for eksempel, manuelt ændret metadata, eksistensen af identiske billeder på nettet, forskellige fotografiske uregelmæssigheder osv.

Ingenting af dette er ment som en nedgørelse af de fantastiske fremskridt, vi har set i generativ AI-teknologi over de sidste par år, som faktisk har nyttige og produktive anvendelser på tværs af brancher. Men den potente – ikke at tale om simpliciteten – af denne opblomstrende teknologi garanterer næsten sin misbrug af dem, der søger at manipulere organisationer, enten for personlig gevinst eller for at så samfundsmæssig kaos.

Virksomheder kan have det bedste af begge verdener: produktivitetsfordelene ved AI uden ulemperne ved almindelige deepfakes. Men for at opnå dette kræver det en ny grad af vagtsomhed, især med tanke på, at generativ AI’s output kun bliver mere overbevisende, detaljeret og livlig fra dag til dag. Jo før virksomheder retter deres opmærksomhed mod dette problem, desto før kan de høste de fulde fordele af en automatiseret verden.

Nicos Vekiarides er administrerende direktør og medstifter af Attestiv. Han har brugt de sidste 20 år i enterprise IT og cloud, som administrerende direktør og iværksætter, hvor han har bragt innovative nye teknologier på markedet. Hans tidligere startup, TwinStrata, en innovativ cloud-lagringsselskab, hvor han var pioner inden for cloud-integreret lagring til virksomheder, blev købt af EMC i 2014. Før det bragte han branchens første lagringsvirtualisering-applikation på markedet for StorageApps, et selskab, der senere blev købt af HP.