Connect with us

Artificiell intelligens

AI och nationell säkerhet: Det nya slagfältet

mm

Artificiell intelligens förändrar hur nationer skyddar sig. Den har blivit oumbärlig för cybersäkerhet, vapenutveckling, gränskontroll och till och med allmän diskurs. Medan den erbjuder betydande strategiska fördelar, introducerar den också många risker. Den här artikeln undersöker hur AI omformar säkerheten, de nuvarande resultaten och de utmanande frågorna som dessa nya teknologierna väcker.

  • Cybersäkerhet: En kamp mellan AI och AI

De flesta attacker i dag börjar i cyberrymden. Kriminella skriver inte längre varje phishing-e-post för hand. De använder språkmodeller för att utarbeta meddelanden som låter vänliga och naturliga. År 2024 använde en grupp en deep-fake-video av en finanschef för att stjäla 25 miljoner dollar från sitt eget företag. Videon såg så verklig ut att en anställd följde den falska ordern utan tvekan. Angriparna matar nu stora språkmodeller med läckta cv:n eller LinkedIn-data för att skapa personliga beten. Vissa grupper använder till och med genererande AI för att skapa programvarufel eller skriva skadlig kod.

Försvararna använder också AI för att skydda mot dessa attacker. Säkerhetsteam matar nätverksloggar, användarklick och globala hotrapporter till AI-verktyg. Programvaran lär sig “normal” aktivitet och varnar när något misstänkt händer. När en intrång upptäcks, AI-system kopplar bort en misstänkt dator för att begränsa skadan som skulle spridas om människor reagerade långsammare.

  • Autonoma vapen

AI kliver också in på fysiska slagfält. I Ukraina använder droner ombordvision för att hitta bränslefordon eller radarsystem innan de exploderar. USA har använt AI för att hjälpa till att identifiera mål för flygräder i platser som Syrien. Israels armé använde nyligen en AI-målvalsplattform för att sortera tusentals flygbilder för att markera potentiella militanta gömställen. Kina, Ryssland, Turkiet och Storbritannien har testat ” loiterande stridsmedel ” som cirkulerar runt ett område tills AI upptäcker ett mål. Dessa teknologier kan göra militära operationer mer exakta och minska riskerna för soldater. Men de väcker också allvarliga farhågor. Vem är ansvarig när en algoritm väljer fel mål? Vissa experter fruktar ” blixtkrig ” där maskiner reagerar för snabbt för diplomater att stoppa dem. Många experter kräver internationella regler för att kontrollera autonoma vapen, men stater fruktar att hamna på efterkälken om de pausar.

  • Övervakning och underrättelser

Underrättelsetjänster förlitade sig tidigare på team av analytiker för att läsa rapporter eller titta på videoflöden. Idag förlitar de sig på AI för att sikta miljontals bilder och meddelanden varje timme. I vissa länder, som Kina, spårar AI medborgarnas beteende, från små saker som att gå över gatan till vad de gör online. Likaså, på USA-Mexiko-gränsen, soltorn med kameror och termiska sensorer skannar tom öken. AI identifierar en rörlig figur, märker den som människa eller djur och varnar patrulleringsagenter. Denna ” virtuella mur ” täcker stora områden som människor aldrig kunde övervaka ensamma.

Medan dessa verktyg utvidgar täckningen, förstorar de också fel. Ansiktsigenkänningsystem har visat sig misidentifiera kvinnor och personer med mörkare hud i högre grad än vita män. En enda felmatchning kan orsaka att en oskyldig person utsätts för extra kontroller eller frihetsberövning. Beslutsfattare kräver granskade algoritmer, tydliga överklagandevägar och mänsklig granskning innan några kraftfulla åtgärder vidtas.

  • Informationskrigföring

Moderna konflikter utkämpas inte bara med missiler och kod, utan också med berättelser. I mars 2024 visade en falsk video Ukrainas president som beordrade soldater att ge upp; den spreds online innan faktakontrollanter avfärdade den. Under 2023 års Israel-Hamas-konflikt AI-genererade falska som favörerade ena sidans politik flödade sociala strömmar för att påverka opinionen.

Falsk information sprids snabbare än regeringar kan korrigera den. Detta är särskilt problematiskt under val, där AI-genererat innehåll ofta används för att påverka väljare. Väljare har svårt att skilja på riktiga och AI-genererade bilder eller videor. Medan regeringar och teknikföretag arbetar på mot-AI-projekt för att skanna de digitala fingeravtrycken från AI, är racet tajt; skaparna förbättrar sina falska lika snabbt som försvararna förbättrar sina filter.

  • Beslutsstöd

Arméer och myndigheter samlar in stora mängder data, inklusive timmar av drönarvideo, underhållsloggar, satellitbilder och öppna källrapporter. AI hjälper till genom att sortera och framhäva relevant information. Nato antog nyligen ett system inspirerat av USA:s Project Maven. Det länkar samman databaser från 30 medlemsstater, vilket ger planerarna en enhetlig vy. Systemet föreslår sannolika fiendens rörelser och identifierar potentiella försörjningsbrister. USA:s specialförbandskommando använder AI för att hjälpa till att utarbeta delar av sin årliga budget genom att skanna fakturor och rekommendera omfördelningar. Liknande AI-plattformar förutsäger motorhaverier, schemalägger reparationer i förväg och anpassar flygsimuleringar för enskilda piloters behov.

  • Polisverksamhet och gränskontroll

Polisstyrkor och invandringsmyndigheter använder AI för uppgifter som kräver konstant uppmärksamhet. På vältrafikerade flygplatser bekräftar biometiska kiosker identiteten hos resenärer för att göra processen mer effektiv. Mönsteranalysprogram plockar ut resehandlingar som antyder människohandel eller narkotikasmuggling. År 2024 använde ett europeiskt partnerskap sådana verktyg för att avslöja en ring som flyttade migranter med lastfartyg. Dessa verktyg kan göra gränserna säkrare och hjälpa till att gripa brottslingar. Men det finns också farhågor. Ansiktsigenkänning misslyckas ibland för vissa klasser av människor med låg representation, vilket kan leda till misstag. Sekretess är ett annat problem. Den viktiga frågan är om AI bör användas för att övervaka alla så noggrant.

Sammanfattning

AI förändrar den nationella säkerheten på många sätt, både med möjligheter och risker. Den kan skydda länder från cyberhot, göra militära operationer mer exakta och förbättra beslutsfattandet. Men den kan också sprida lögner, kränka sekretessen eller begå dödliga fel. När AI blir allt vanligare inom säkerhetsområdet måste vi hitta en balans mellan att använda dess kraft för det goda och kontrollera dess faror. Detta innebär att länderna måste samarbeta och fastställa tydliga regler för hur AI kan användas. Till slut är AI ett verktyg, och hur vi använder det kommer att omdefiniera säkerhetens framtid. Vi måste vara försiktiga med att använda det klokt, så att det hjälper oss mer än det skadar oss.

Dr. Tehseen Zia är en fast anställd biträdande professor vid COMSATS University Islamabad, med en doktorsexamen i AI från Vienna University of Technology, Österrike. Specialiserad på artificiell intelligens, maskinlärning, datavetenskap och datorseende, har han gjort betydande bidrag med publikationer i ansedda vetenskapliga tidskrifter. Dr. Tehseen har också lett olika industriprojekt som huvudutredare och tjänstgjort som AI-konsult.