Connect with us

Tankeledere

Hvordan AI-drevne deepfakes truer valgintegritet — Og hva vi kan gjøre med det

mm

Valgkampanjer kan allerede bli ganske uoversiktige og kontroversielle.

Tenk deg at du blir målrettet med en valgkampanje hvor en kandidat uttrykker sterke holdninger som påvirker din stemme — og annonsen ikke engang er ekte. Det er en deepfake.

Dette er ikke noen futuristisk hypotese; deepfakes er et reelt, utbredt problem. Vi har allerede sett AI-genererte “støtter” som har skapt overskrifter, og det vi har hørt, er bare toppen av isfjellet.

Ettersom vi nærmer oss det amerikanske presidentvalget i 2024, går vi inn i ukartet territorium når det gjelder cybersikkerhet og informasjonsintegritet. Jeg har arbeidet på grensen mellom cybersikkerhet og AI siden begge disse konseptene var i sin spede, og jeg har aldri sett noe lignende det som skjer nå.

Den raske utviklingen av kunstig intelligens — spesielt generativ AI og, naturligvis, de resulterende lett å lage realistiske deepfakes — har forandret landskapet av valgtrusler. Denne nye virkeligheten krever en endring i grunnleggende antagelser når det gjelder valgsikkerhet og velgerutdanning.

Våpenisert AI

Du trenger ikke å ta min personlige erfaring som bevis; det finnes nok bevis for at de cybersikkerhetsutfordringene vi står overfor i dag, utvikler seg i en utenkelig hastighet. På bare noen få år, har vi vært vitne til en dramatisk forandring i kapabilitetene og metodene til potensielle trusler. Denne utviklingen speiler den akselererte utviklingen vi har sett i AI-teknologier, men med en bekymringsverdig vending.

Eksempel på dette:

  • Rask våpenisering av sårbarheter. Dagens angripere kan raskt utnytte nyoppdagede sårbarheter, ofte raskere enn patches kan utvikles og distribueres. AI-verktøy akselererer denne prosessen ytterligere, og reduserer vinduet mellom oppdagelse av sårbarhet og utnyttelse.
  • Utvidet angrepsflate. Den omfattende bruken av skyteknologier har betydelig utvidet den potensielle angrepsflaten. Distribuert infrastruktur og den delte ansvarsmodellen mellom skytjenesteleverandører og brukere, skaper nye vektorer for utnyttelse hvis de ikke håndteres korrekt.
  • Foreldede tradisjonelle sikkerhetstiltak. Arvssikkerhetstiltak som brannmurer og antivirusprogrammer sliter med å holde tritt med disse utviklende truslene, spesielt når det gjelder å oppdage og mildne AI-generert innhold.

Se hvem som snakker

I dette nye trussellandskapet, representerer deepfakes en særlig skjult utfordring for valgintegritet. Ny forskning fra Ivanti gir noen tall til trusselen: mer enn halvparten av kontorarbeidere (54%) er ikke klar over at avansert AI kan etterligne noen som helsts stemme. Mangelen på bevissthet blant potensielle velgere er dypt bekymringsverdig når vi nærmer oss en kritisk valgperiode.

Det står så mye på spill.

Sophistikasjonen i dagens deepfake-teknologi tillater trusler, både utenlandske og innenlandske, å lage overbevisende falsk audio, video og tekstinnhold med minimalt arbeid. En enkel tekstprompt kan nå generere en deepfake som er stadig vanskeligere å skille fra ekte innhold. Denne evnen har alvorlige implikasjoner for spredning av desinformasjon og manipulering av offentlig mening.

Ufordringer i tilskrivning og mildning

Tilskrivning er en av de største utfordringene vi står overfor med AI-generert valginterferens. Mens vi historisk har assosiert valginterferens med nasjonalstatlige aktører, betyr demokratiseringen av AI-verktøy at innenlandske grupper, drevet av ulike ideologiske motiver, nå kan utnytte disse teknologiene til å påvirke valg.

Denne spredningen av potensielle trusler kompliserer vår evne til å identifisere og mildne kilder for desinformasjon. Det understreker også behovet for en flerdimensjonal tilnærming til valgsikkerhet som går utenfor tradisjonelle cybersikkerhetstiltak.

Koordinert innsats for å opprettholde valgintegritet

Å møte utfordringen med AI-drevne deepfakes i valg, vil kreve en koordinert innsats over flere sektorer. Her er nøkkelområder hvor vi må fokusere våre anstrengelser:

  • Shift-left-sikkerhet for AI-systemer. Vi må anvende prinsippene for “shift-left”-sikkerhet til utviklingen av AI-systemer selv. Dette betyr å inkorporere sikkerhetsbetragtninger fra de tidligste stadiene av AI-modellutvikling, inkludert betragtninger for potensiell misbruk i valginterferens.
  • Iværksättelse av sikre konfigurasjoner. AI-systemer og plattformer som potensielt kan brukes til å generere deepfakes, bør ha robuste, sikre konfigurasjoner som standard. Dette inkluderer sterke autentiseringsmåter og begrensninger på typene av innhold som kan genereres.
  • Sikring av AI-leverandørkjeden. Likeledes som vi fokuserer på å sikre programvareleverandørkjeden, må vi utvide denne vigilansen til AI-leverandørkjeden. Dette inkluderer å skrutinisere datamengdene som brukes til å trene AI-modeller og algoritmene som brukes i generativ AI.
  • Forbedret oppdagingsevne. Vi må investere i og utvikle avanserte oppdagingstiltak som kan identifisere AI-generert innhold, spesielt i sammenheng med valgrelatert informasjon. Dette vil sannsynligvis involvere å bruke AI selv til å bekjempe AI-generert desinformasjon.
  • Velgerutdanning og bevissthet. En avgjørende komponent i vår forsvar mot deepfakes er en informert velgermasse. Vi må ha omfattende utdanningsprogrammer for å hjelpe velgere å forstå eksistensen og potensielle innvirkning av AI-generert innhold, og å gi dem verktøy til å kritisk vurdere informasjonen de møter.
  • Tverrsektor samarbeid. Teknologisektoren, spesielt IT- og cybersikkerhetsfirmaer, må samarbeide tett med myndigheter, valgmyndigheter og medieorganisasjoner for å skape en forent front mot AI-drevet valginterferens.

Hva nå, og hva neste

Ettersom vi implementerer disse strategiene, er det avgjørende at vi kontinuerlig måler deres effektivitet. Dette vil kreve nye målinger og overvåkingsverktøy som er spesifikt utformet for å spore innvirkningen av AI-generert innhold på valgdiskurs og velgeratferd.

Vi bør også være forberedt på å tilpasse våre strategier raskt. AI-feltet utvikler seg i en rasende fart, og våre defensive tiltak må utvikle seg like raskt. Dette kan involvere å bruke AI selv til å skape mer robuste og tilpasningsdyktige sikkerhetstiltak.

Utfordringen med AI-drevne deepfakes i valg representerer et nytt kapittel i cybersikkerhet og informasjonsintegritet. For å møte denne utfordringen, må vi tenke utenfor tradisjonelle sikkerhetsparadigmer og fremme samarbeid over sektorer og disipliner. Målet: å utnytte kraften av AI til fordel for demokratiske prosesser samtidig som vi mildner dens potensiale for skade. Dette er ikke bare en teknisk utfordring, men en samfunnsmessig utfordring som vil kreve kontinuerlig vigilans, tilpasning og samarbeid.

Integriteten til våre valg – og ved utvidelse, helsen til vår demokrati – avhenger av vår evne til å møte denne utfordringen frontalt. Dette er en ansvar som faller på oss alle: teknologer, politiske beslutningstakere og borgere likt.

Dr. Srinivas Mukkamala er Chief Product Officer for Ivanti. Han var grunnlegger og CEO for RiskSense til Ivanti kjøpte selskapet i august 2021.

Han ble med i Ivanti som leder for Ivanti-sikkerhetsløsninger og har vært instrumental i å integrere RiskSense-porteføljen og -teamet i Ivanti-strategien. Han er en anerkjent autoritet i kunstig intelligens (AI) og neurale nettverksamfunn og var en del av en tenketank som samarbeidet med det amerikanske forsvarsdepartementet om å anvende disse konseptene på cybersikkerhetsproblemer.

Dr. Mukkamala er ansvarlig for produktledelse for alle Ivanti-løsninger og vil fortsette å drive innovasjon i integrerte løsninger på tvers av alle selskapets søyler: ITSM, Sikkerhet og UEM.​

Dr. Mukkamala var også en ledende forsker for CACTUS (Computational Analysis of Cyber Terrorism against the U.S.) og innehar et patent på Intelligent Agents for Distributed Intrusion Detection System og Method of Practicing.​
Dr. Mukkamala har en PhD og en mastergrad i datavitenskap fra New Mexico Institute of Mining and Technology.