Connect with us

Kunstig intelligens

AI og nasjonal sikkerhet: Det nye slagfeltet

mm

Kunstig intelligens endrer hvordan nasjoner beskytter seg selv. Det har blitt essensielt for cybersikkerhet, våpenutvikling, grensekontroll og selv offentlig diskurs. Mens det tilbyr betydelige strategiske fordeler, introduserer det også mange risikoer. Denne artikkelen undersøker hvordan AI former sikkerheten, de nåværende resultater og de utfordrende spørsmålene disse nye teknologiene reiser.

  • Cybersikkerhet: En kamp mellom AI og AI

De fleste angrep i dag starter i cyberspace. Kriminelle skriver ikke lenger hver enkelt phising-e-post for hånd. De bruker språkmodeller til å utarbeide meldinger som lyder vennlige og naturlige. I 2024 brukte en gjeng en deep-fake-video av en finansdirektør til å stjele 25 millioner dollar fra sitt eget selskap. Videoen så så realistisk ut at en ansatt fulgte den falske ordren uten tvil. Angripere føder nå store språkmodeller med lekkede CV-er eller LinkedIn-data for å lage personlig agn. Noen grupper bruker til og med generativ AI til å lage programfeil eller skrive malware-utklipp.

Forsvarerne bruker også AI til å beskytte mot disse angrepene. Sikkerhetsteamene føder nettverkslogger, bruker klikk og globale truslerapporter inn i AI-verktøy. Programvaren lærer «normal» aktivitet og advarer når noe mistenkelig skjer. Når et innbrudd blir oppdaget, AI-systemer kobler fra en mistenkt datamaskin for å begrense skaden som ville spre seg hvis mennesker reagerte langsommere.

  • Autonome våpen

AI trår også inn på fysiske slagfelt. I Ukraina, droner bruker ombord-vision til å finne drivstofftanker eller radarstasjoner før de eksploderer. USA har brukt AI til å hjelpe med å identifisere mål for luftangrep i steder som Syria. Israels hær brukte nylig en AI-målvalgplattform til å sortere tusenvis av luftbilder for å merke potensielle skjulesteder for militante. Kina, Russland, Tyrkia og Storbritannia har testet «loitering munitions» som sirkler rundt et område til AI oppdager et mål. Disse teknologiene kan gjøre militære operasjoner mer presise og redusere risikoer for soldater. Men de bringer også alvorlige bekymringer. Hvem er ansvarlig når en algoritme velger det feil målet? Noen eksperter frykter «flash-kriger» hvor maskiner reagerer for raskt for diplomater til å stoppe dem. Mange eksperter krever internasjonale regler for å kontrollere autonome våpen, men stater frykter å bli forsinket hvis de pauser.

  • Overvåking og etterretning

Etterretningstjenester har tidligere avhengig av team av analytikere til å lese rapporter eller se på videostrømmer. I dag avhenger de av AI til å si igjennom millioner av bilder og meldinger hver time. I noen land, som Kina, AI sporer borgeres atferd, fra små ting som å gå over gaten til hva de gjør på nettet. Liknende, på USAs–Meksicos grense, sol-tårn med kameraer og termiske sensorer skanner tom ørken. AI merker en bevegelig figur, merker den som menneske eller dyr, og varsler patruljeagenter. Denne «virtuelle muren» dekker et stort område som mennesker aldri kunne overvåke alene.

Mens disse verktøyene utvider dekningen, forsterker de også feil. Ansiktsgjenkjenningssystemer har vist seg å feilidentifisere kvinner og mennesker med mørkere hud på høyere rater enn hvite menn. En enkelt feilmatch kan føre til at en uskyldig person blir utsatt for ekstra kontroller eller varetektsfengsling. Beslutningstakere krever gjennomgang av algoritmer, klare ankeveier og menneskelig gjennomgang før noen kraftig handling.

  • Informasjonskrig

Moderne konflikter utkjempes ikke bare med missiler og kode, men også med narrativer. I mars 2024 viste en falsk video Ukrainas president som beordret soldatene til å overgi seg; den spredte seg på nettet før faktasjekker avviste den. Under Israel–Hamas-konflikten i 2023, AI-genererte feil som favnet en parts politikk, flommet sosiale strømmer for å påvirke opinionen.

Falsk informasjon spres raskere enn regjeringer kan korrigere den. Dette er spesielt problematiske under valg, hvor AI-generert innhold ofte brukes til å påvirke velgere. Velgerne har vanskelig for å skille mellom ekte og AI-genererte bilder eller videoer. Mens regjeringer og teknologiselskaper arbeider på mot-AI-prosjekter for å skanne de digitale fingeravtrykkene til AI, er kappløpet tett; skaperne forbedrer sine feil like raskt som forsvarerne forbedrer sine filtre.

  • Beslutningsstøtte

Hærer og etater samler inn store mengder data, inkludert timer med dronen-video, vedlikeholdslogger, satellittbilder og åpne kilde-rapporter. AI hjelper med å sortere og fremheve relevant informasjon. NATO har nylig adoptert et system inspirert av USAs prosjekt Maven. Det kobler sammen databaser fra 30 medlemsstater og gir planleggerne en samlet oversikt. Systemet foreslår sannsynlige fiendtlige bevegelser og identifiserer potensielle forsyningstap. USAs spesialstyrker bruker AI til å hjelpe med å utarbeide deler av sin årlige budsjett ved å skanne fakturaer og anbefale omfordeling. Liknende AI-plattformer forutsier motorfeil, planlegger reparasjoner på forhånd og tilpasser flysimuleringer til enkelt-piloters behov.

  • Lov og grensekontroll

Politistyrker og immigrasjonsmyndigheter bruker AI til oppgaver som krever konstant oppmerksomhet. På travle flyplasser, biometriske kiosker bekrefter identiteten til reisende for å gjøre prosessen mer effektiv. Mønster-analyseprogramvare plukker ut reiseopptegnelser som antyder menneskehandel eller narkotikasmugling. I 2024 avdekket et europæisk samarbeid slike verktøy en ring som flytter migranter gjennom lasteskip. Disse verktøyene kan gjøre grensene tryggere og hjelpe med å fange kriminelle. Men det er også bekymringer. Ansiktsgjenkjenning feiler av og til for bestemte klasser av mennesker med lav representasjon, noe som kan føre til feil. Personvern er et annet problem. Hovedspørsmålet er om AI bør brukes til å overvåke alle så nært.

Det viktigste

AI endrer nasjonal sikkerhet på mange måter, og tilbyr både muligheter og risikoer. Det kan beskytte land mot cyber-trusler, gjøre militære operasjoner mer presise og forbedre beslutningene. Men det kan også spre løgner, invadere personvern eller gjøre dødelige feil. Mens AI blir mer vanlig i sikkerheten, må vi finne en balanse mellom å bruke dens kraft til godt og kontrollere dens farer. Dette betyr at landene må samarbeide og sette klare regler for hvordan AI kan brukes. Til slutt er AI et verktøy, og hvordan vi bruker det, vil definere fremtiden til sikkerheten. Vi må være forsiktige med å bruke det fornuftig, så det hjelper oss mer enn det skader oss.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.