Connect with us

Kunstmatige intelligentie

AI en nationale veiligheid: het nieuwe slagveld

mm

Kunstmatige intelligentie verandert de manier waarop landen zichzelf beschermen. Het is essentieel geworden voor cybersecurity, wapenontwikkeling, grenscontrole en zelfs publieke discussie. Terwijl het significante strategische voordelen biedt, introduceert het ook veel risico’s. Dit artikel onderzoekt hoe AI de veiligheid vormgeeft, de huidige resultaten en de moeilijke vragen die deze nieuwe technologieën oproepen.

  • Cybersecurity: een strijd van AI tegen AI

De meeste aanvallen van tegenwoordig beginnen in cyberspace. Criminelen schrijven niet langer elke phishing-e-mail met de hand. Ze gebruiken taalmodellen om berichten te schrijven die vriendelijk en natuurlijk klinken. In 2024 gebruikte een bende een deep-fake-video van een financieel directeur om 25 miljoen dollar te stelen van zijn eigen bedrijf. De video zag er zo echt uit dat een medewerker de valse opdracht zonder twijfel volgde. Aanvallers voeden nu grote taalmodellen met gelekte cv’s of LinkedIn-gegevens om persoonlijke lokaas te maken. Sommige groepen gebruiken zelfs generatieve AI om softwarebugs te maken of kwaadaardige code te schrijven.

Verdedigers gebruiken ook AI om zich te beschermen tegen deze aanvallen. Beveiligingsteams voeden netwerklogs, gebruikersklikken en wereldwijde dreigingsrapporten in AI-hulpmiddelen. De software leert “normale” activiteit en waarschuwt wanneer er iets verdachts gebeurt. Wanneer een inbraak wordt gedetecteerd, AI-systemen ontkoppelen een verdachte computer om de schade te beperken die zou ontstaan als mensen langzamer reageerden.

  • Autonome wapens

AI komt ook op fysieke slagvelden. In Oekraïne gebruiken drones aan boord visie om brandstofwagens of radarsites te vinden voordat ze ontploffen. De VS hebben AI gebruikt om doelen te helpen identificeren voor luchtaanvallen in plaatsen als Syrië. Het Israëlische leger gebruikte onlangs een AI-doelselectieplatform om duizenden luchtfoto’s te sorteren om potentiële militantenholen te markeren. China, Rusland, Turkije en het VK hebben ” loiterende munitie ” getest die een gebied cirkelen totdat AI een doelwit vindt. Deze technologieën kunnen militaire operaties nauwkeuriger maken en het risico voor soldaten verkleinen. Maar ze brengen ook ernstige zorgen met zich mee. Wie is verantwoordelijk wanneer een algoritme het verkeerde doelwit kiest? Sommige experts vrezen ” flitsoorlogen ” waarin machines te snel reageren voor diplomaten om ze te stoppen. Veel experts roepen op tot internationale regels om autonome wapens te controleren, maar staten vrezen dat ze achterblijven als ze pauzeren.

  • Toezicht en inlichtingen

Inlichtingendiensten vertrouwden vroeger op teams van analisten om rapporten te lezen of videostreams te bekijken. Tegenwoordig vertrouwen ze op AI om miljoenen afbeeldingen en berichten per uur te zeven. In sommige landen, zoals China, AI volgt het gedrag van burgers, van kleine dingen zoals het overtreden van verkeersregels tot wat ze online doen. Op soortgelijke wijze, op de grens tussen de VS en Mexico, scannen zonnepanelen met camera’s en thermische sensoren lege woestijn. De AI detecteert een bewegende figuur, labelt het als mens of dier en waarschuwt grenspatrouille. Deze ” virtuele muur ” beslaat een groot gebied dat mensen nooit alleen kunnen bewaken.

Terwijl deze tools de dekking uitbreiden, vermenigvuldigen ze ook fouten. Gezichtsherkenningssystemen hebben een hogere foutenratio voor vrouwen en mensen met donkere huid dan voor blanke mannen. Een enkele verkeerde match kan ertoe leiden dat een onschuldig persoon extra controles of detentie ondergaat. Beleidsmakers vragen om geauditeerde algoritmen, duidelijke beroepsmogelijkheden en menselijke beoordeling voordat er enige ernstige actie wordt ondernomen.

  • Informatieoorlog

Moderne conflicten worden niet alleen met raketten en code, maar ook met verhalen gevoerd. In maart 2024 toonde een nepvideo Oekraïnes president die zijn soldaten bevel gaf om zich over te geven; het verspreidde zich online voordat feitcontroleurs het ontmaskerden. Tijdens de gevechten tussen Israël en Hamas in 2023 overspoelden AI-gegenereerde nepberichten die één partij bevoordeelden, sociale media, om de mening te beïnvloeden.

Valse informatie verspreidt zich sneller dan regeringen kunnen corrigeren. Dit is vooral problematisch tijdens verkiezingen, waarbij AI-gegenereerde inhoud vaak wordt gebruikt om kiezers te beïnvloeden. Kiezers hebben moeite om echte en AI-gegenereerde afbeeldingen of video’s te onderscheiden. Terwijl regeringen en technologiebedrijven werken aan anti-AI-projecten om de digitale vingerafdrukken van AI te scannen, is de strijd fel; makers verbeteren hun nepberichten net zo snel als verdedigers hun filters verbeteren.

  • Beslissingondersteuning

Legers en agentschappen verzamelen enorme hoeveelheden gegevens, waaronder uren aan dronevideo’s, onderhoudslogs, satellietbeelden en openbare rapporten. AI helpt door relevante informatie te sorteren en te markeren. De NAVO heeft onlangs een systeem geadopteerd dat is geïnspireerd op het Amerikaanse Project Maven. Het koppelt databases van 30 lidstaten, waardoor planners een geünificeerd overzicht krijgen. Het systeem suggereert waarschijnlijke vijandelijke bewegingen en identificeert potentiële tekorten aan voorraden. Het Amerikaanse Special Operations Command gebruikt AI om delen van zijn jaarlijkse begroting te helpen opstellen door facturen te scannen en herallocaties aan te bevelen. Soortgelijke AI-platforms voorspellen motorstoringen, plannen reparaties van tevoren en personaliseren vluchtsimulaties voor de behoeften van individuele piloten.

  • Handhaving van de wet en grenscontrole

Politieagenten en immigratiefunctionarissen gebruiken AI voor taken die constante aandacht vereisen. Op drukke luchthavens bevestigen biometrische kiosken de identiteit van reizigers om het proces efficiënter te maken. Pattern-analysesoftware selecteert reisrecords die op mensenhandel of drugssmokkel wijzen. In 2024 ontdekte een Europese samenwerking met dergelijke tools een ring die migranten via vrachtschepen verplaatste. Deze tools kunnen grenzen veiliger maken en helpen bij het vangen van criminelen. Maar er zijn ook zorgen. Gezichtsherkenning faalt soms voor bepaalde klassen van mensen met weinig vertegenwoordiging, wat tot fouten kan leiden. Privacy is een ander probleem. De belangrijkste vraag is of AI moet worden gebruikt om iedereen zo nauwlettend te controleren.

De bodemlijn

AI verandert de nationale veiligheid op veel manieren, zowel kansen als risico’s biedend. Het kan landen beschermen tegen cyberdreigingen, militaire operaties nauwkeuriger maken en besluitvorming verbeteren. Maar het kan ook leugens verspreiden, privacy schenden of dodelijke fouten maken. Naarmate AI meer wordt gebruikt in de veiligheid, moeten we een balans vinden tussen het gebruik van zijn kracht voor het goede en het controleren van zijn gevaren. Dit betekent dat landen samen moeten werken en duidelijke regels moeten vaststellen voor het gebruik van AI. Uiteindelijk is AI een instrument, en hoe we het gebruiken, zal de toekomst van de veiligheid herschrijven. We moeten ervoor zorgen dat we het verstandig gebruiken, zodat het ons meer helpt dan schaadt.

Dr. Tehseen Zia is een gewaardeerd associate professor aan de COMSATS University Islamabad, met een PhD in AI van de Vienna University of Technology, Oostenrijk. Hij specialiseert zich in Artificial Intelligence, Machine Learning, Data Science en Computer Vision, en heeft significante bijdragen geleverd met publicaties in gerenommeerde wetenschappelijke tijdschriften. Dr. Tehseen heeft ook verschillende industriële projecten geleid als hoofdonderzoeker en heeft gediend als AI-consultant.