Connect with us

Kunstig intelligens

AI og national sikkerhed: Det nye slagmark

mm

Kunstig intelligens ændrer, hvordan nationer beskytter sig selv. Det er blevet essentiel for cybersikkerhed, våbenudvikling, grænsekontrol og sogar offentlig diskurs. Mens det tilbyder betydelige strategiske fordele, introducerer det også mange risici. Denne artikel undersøger, hvordan AI omdefinerer sikkerheden, de nuværende resultater og de udfordrende spørgsmål, disse nye teknologier rejser.

  • Cybersikkerhed: En kamp mellem AI mod AI

De fleste angreb i dag starter i cyberspace. Kriminelle skriver ikke længere hver phishing-e-mail hånd i hånd. De bruger sprogmodeller til at udarbejde beskeder, der lyder venlige og naturlige. I 2024 brugte en bande en deep-fake-video af en finansdirektør til at stjæle 25 millioner dollars fra sin egen virksomhed. Videoen så så realistisk ud, at en medarbejder fulgte den falske ordre uden tvivl. Angribere føder nu store sprogmodeller med lækkede CV’er eller LinkedIn-data for at skabe personlige krogne. Nogle grupper bruger endda generativ AI til at skabe software-bugs eller skrive malware-udsnit.

Forsvarere bruger også AI til at beskytte sig mod disse angreb. Sikkerhedshold fodrer netværkslogge, bruger klik og globale truselrapporter ind i AI-værktøjer. Softwaren lærer “normal” aktivitet og advarer, når noget mistænkeligt sker. Når et indtrængen er registreret, AI-systemer afbryder en mistænkt computer for at begrænse skaden, der ville sprede sig, hvis mennesker reagerede langsommere.

  • Autonome våben

AI træder også ind på fysiske slagmarker. I Ukraine bruger droner ombord-vision til at finde brændstoflastbiler eller radarstationer, før de eksploderer. USA har brugt AI til at hjælpe med at identificere mål for luftangreb i steder som Syrien. Israels hær brugte nyligt en AI-målvalgsplatform til at sortere tusinder af luftfotos for at markere potentielle militant-gemte. Kina, Rusland, Tyrkiet og Storbritannien har testet ” loitering-munition“, der cirkler omkring et område, indtil AI spotter et mål. Disse teknologier kan gøre militære operationer mere præcise og reducere risici for soldater. Men de bringer også alvorlige bekymringer. Hvem er ansvarlig, når en algoritme vælger det forkerte mål? Nogle eksperter frygter ” flash-krige“, hvor maskiner reagerer for hurtigt til, at diplomater kan stoppe dem. Mange eksperter opfordrer til internationale regler for at kontrollere autonome våben, men stater frygter at blive efterladt, hvis de pauser.

  • Overvågning og efterretning

Efterretningstjenester har tidligere afhængigt af hold af analytikere til at læse rapporter eller se videooptagelser. I dag afhænger de af AI til at sieve millioner af billeder og beskeder hver time. I nogle lande, som Kina, sporer AI borgeres adfærd, fra små ting som at gå over gaden til, hvad de gør online. Lignende på USA-Mexico-grænsen, soltårne med kameraer og termiske sensorer scanner tom ørken. AI spotter en bevægelig figur, mærker den som menneske eller dyr og alarmerer patruljeagenter. Denne ” virtuelle mur” dækker et stort område, som mennesker aldrig kunne overvåge alene.

Mens disse værktøjer udvider dækningen, forstørrer de også fejl. Ansigtsgenkendelsessystemer er blevet vist at misidentificere kvinder og mennesker med mørkere hud på højere satser end hvide mænd. En enkelt fejl kan føre til, at en uskyldig person får ekstra kontroller eller fængsling. Beslutningstagerne beder om auditerede algoritmer, klare appelveje og menneskelig gennemgang, før nogen stærk handling.

  • Informationskrig

Moderne konflikter udkæmpes ikke kun med missiler og kode, men også med narrativer. I marts 2024 viste en falsk video, at Ukraines præsident beordrede soldaterne til at overgive sig; den spredte sig online, før faktatjekkerne afviste den. Under 2023 Israel-Hamas-konflikten AI-genererede falske billeder, der favoriserede en sides politik, oversvømmede sociale strømme for at påvirke mening.

Falsk information spreder sig hurtigere, end regeringer kan korrigere den. Dette er især problematiske under valg, hvor AI-genereret indhold ofte bruges til at påvirke vælgere. Vælgerne har svært ved at skelne mellem rigtige og AI-genererede billeder eller videoer. Mens regeringer og teknologivirksomheder arbejder på mod-AI-projekter til at scanne de digitale fingeraftryk af AI, er kapløbet tæt; skabere forbedrer deres falske billeder lige så hurtigt, som forsvarerne forbedrer deres filtre.

  • Beslutningsstøtte

Hære og agenter indsamler enorme mængder af data, herunder timer af dronevideo, vedligeholdelseslogge, satellitbilleder og åbne kilde-rapporter. AI hjælper med at sortere og fremhæve relevante oplysninger. NATO har nyligt adoptet et system inspireret af det amerikanske Project Maven. Det forbinder databaser fra 30 medlemsstater og giver planlæggere en samlet oversigt. Systemet foreslår sandsynlige fjendtlige bevægelser og identificerer potentielle forsyningssvigt. Den amerikanske særlige operationskommando bruger AI til at hjælpe med at udarbejde dele af sin årlige budget ved at scanne fakturaer og anbefale omfordeling. Lignende AI-platforme forudser motorfejl, planlægger reparationer i forvejen og tilpasser flysimuleringer til enkeltte piloters behov.

  • Lov og grænsekontrol

Politi og immigrationsmyndigheder bruger AI til opgaver, der kræver konstant opmærksomhed. Ved travle lufthavne bekræfter biometriske kiosker identiteten af rejsende for at gøre processen mere effektiv. Mønster-analysesoftware peger på rejseoptegnelser, der antyder menneskehandel eller narkotikasmugling. I 2024 brugte et europæisk partnerskab sådanne værktøjer til at afsløre en ring, der flyttede migranter via fragtskibe. Disse værktøjer kan gøre grænserne sikrere og hjælpe med at fange kriminelle. Men der er også bekymringer. Ansigtsgenkendelse kan nogle gange fejle for visse klasser af mennesker med lav repræsentation, hvilket kan føre til fejl. Privatliv er et andet problem. Det centrale spørgsmål er, om AI skal bruges til at overvåge alle så tæt.

Det afgørende punkt

AI ændrer national sikkerhed på mange måder, både med muligheder og risici. Det kan beskytte lande mod cybertrusler, gøre militære operationer mere præcise og forbedre beslutningstagningen. Men det kan også sprede løgne, krænke privatliv eller begå dødelige fejl. Mens AI bliver mere almindeligt i sikkerheden, må vi finde en balance mellem at bruge dets kraft til det gode og kontrollere dets farer. Dette betyder, at lande må arbejde sammen og fastlægge klare regler for, hvordan AI kan bruges. Til sidst er AI et værktøj, og hvordan vi bruger det, vil omdefinere fremtidens sikkerhed. Vi må være omhyggelige med at bruge det klogt, så det hjælper os mere end det skader os.

Dr. Tehseen Zia er en fastansat lektor ved COMSATS University Islamabad, med en ph.d. i AI fra Vienna University of Technology, Østrig. Specialiseret i kunstig intelligens, maskinlæring, datavidenskab og computer vision, har han gjort betydelige bidrag med publikationer i anerkendte videnskabelige tidsskrifter. Dr. Tehseen har også ledet forskellige industrielle projekter som hovedundersøger og fungeret som AI-rådgiver.