Cybersikkerhed
Hvordan Hackere Bruger Kunstig Intelligens

KI har vist sig at være en værditilførende teknologi på tværs af den globale økonomi.
Da virksomheder fandt sig selv i en situation, hvor de måtte tilpasse sig til aktuelle begivenheder i de sidste par år, fandt nogle af dem måder at proppen halvandet års værd – i Frito-Lays tilfælde – af digitale transformationer ind i en meget kortere tidsramme. Harris Poll og Appen fandt ud af, at KI-budgetterne øgedes med 55% under den globale pandemi.
Ligesom ethvert værktøj har kunstig intelligens ingen indre moralsk værdi. KI’s nyttighed eller potentiale for skade kommer an på, hvordan systemet “lærer” og hvad mennesker ultimativt gør med det.
Nogle forsøg på at udnytte KI – såsom “at forudsige” kriminalitet, før den sker – viser, at modeller, der er trænet på fordomsfulde data, har tilbøjelighed til at gentage menneskelige svigt. Indtil videre har træning af KI med data fra det amerikanske retssystem resulteret i tragisk fordomsfuld KI-reasonering.
I andre eksempler vælger mennesker mere bevidste måder at udnytte KI’s destruktive potentiale på. Hackere viser igen deres innovative tendenser ved at bruge kunstig intelligens til at forbedre deres angreb, effektivitet og profit. Og da cyberkrig fører til, at det bliver mere og mere almindeligt verden over, vil vi sikkert se, at anvendelserne af KI i hacking udvikler sig endnu mere.
KI er en mulighed og en risiko
Kunstig intelligens giver en verden af muligheder for virksomheder, der ønsker at forbedre deres prognoser, forretningsoptimering og kunderetentionstrategier. Det er også en gevinst for dem, der har til hensigt at kompromittere andres digitale suverænitet.
Her er nogle måder, hvorpå kunstig intelligens kan være modtagelig for diskret manipulation og mere åbenlyse bestræbelser på at vende det mod aggressive handlinger.
1. Kompromittering af maskinlogik
Det største fordel for KI for forbrugere og kommercielle virksomheder er, at det udfører forudsigelige og gentagne handlinger af logik uden menneskelig indgriben. Dette er også dets største svaghed.
Ligesom ethvert andet digitalt konstrukt kan KI være modtagelig for penetration fra ydre kræfter. Hackere, der får adgang til og kompromitterer maskinlogikken, der driver KI, kan få det til at udføre uforudsigelige eller skadelige handlinger. For eksempel kan en KI, der er tildelt industriel tilstandsmonitorering, levere fejlagtige læsninger eller lade vedligeholdelsessignaler gå ubesvarede.
Da hele pointen med KI-investeringer er at eliminere menneskelig indgriben og tvivl om resultaterne, kan skaden på infrastruktur eller produktkvalitet, forårsaget af et angreb af denne art, muligvis ikke blive opdaget, før der opstår en katastrofal fejl.
2. Brug af reverse engineering-algoritmer
En anden potentiel vej til skade – især hvor immaterielle rettigheder (IP) og forbruger- eller kommercielle data er involveret – er begrebet om reverse engineering. Hackere kan endda stjæle den kunstige intelligenskode selv. Med tilstrækkelig tid til at studere, hvordan det fungerer, kan de til sidst afsløre de datasæt, der blev brugt til at træne KI fra starten.
Dette kan føre til flere resultater, hvoraf det første er KI-forgiftning. Andre eksempler kan omfatte, at hackere udnytter KI-træningsdataene selv til at få kompromitterende oplysninger om markeder, konkurrenter, regeringer, leverandører eller almindelige forbrugere.
3. At lære om mål
Overvågning af mål er sandsynligvis en af de mere urolige implikationer af, at KI falder i hænderne på hackere. KI’s evne til at drage konklusioner om en persons evner, videnområder, temperament og sandsynlighed for at blive offer for målretning, svindel eller misbrug er særligt bekymrende for nogle cybersecurity-eksperter.
Kunstig intelligens kan indtage og nå overraskende detaljerede konklusioner om mennesker, hold og grupper på baggrund af nogle af de mest usandsynlige datapunkter. En “engageret” eller “afledt” person kan skrive hurtigt, lege med musen eller skifte mellem browserfaneblade hurtigt. En bruger, der er “forvirret” eller “tøvende”, kan pause, før de klikker på sideelementer, eller genbesøge flere sites.
I de rette hænder kan signaler som disse hjælpe HR-afdelinger med at øge medarbejderengagement eller hjælpe marketinghold med at polere deres websites og salgsforsøg.
For hackere kan signaler som disse muligvis resultere i en overraskende nuanceret psykologisk profil af et mål. Cyberkriminelle kan muligvis afgøre, baseret på hints, der er usynlige for mennesker, hvilke personer, der kan være sårbare over for phishing, smishing, ransomware, finansielt svindel og andre former for skade. Det kan også hjælpe dårlige aktører med at lære, hvordan de bedst kan overbevise deres mål om, at deres svindelforsøg kommer fra legitime kilder.
4. At afprøve netværksvulnerabiliteter
Cybersecurity-fagfolk offentliggjorde data om 20.175 kendte sikkerhedsvulnerabiliteter i 2021. Det var en stigning i forhold til 2020, hvor der var 17.049 sådanne vulnerabiliteter.
Verden bliver mere og mere digitalt forbundet – nogle ville sige interafhængig – med hver time, der går. Verden er nu vært for et overvældende antal små og industrielle netværk med milliarder af forbundne enheder online og endnu flere på vej. Alt er online, fra tilstandsmonitoreringssensorer til virksomhedsplanlægningssoftware.
Kunstig intelligens viser lovende resultater i at hjælpe cybersecurity-hold med at afprøve netværks-, software- og hardwarevulnerabiliteter hurtigere end mennesker alene kan. Hastigheden og omfanget af væksten i Jordens digitale infrastruktur gør det næsten umuligt at søge efter trillioner af linjer med kode efter sikkerhedsudnyttelser til at rette. Dette skal ske, mens disse systemer er online på grund af omkostningerne ved downtime.
Hvis KI er et cybersecurity-værktøj her, er det også en dobbeltægget sværd. Hackere kan bruge de samme mekanismer som “white hat”-IT-folket til at udføre det samme arbejde: at afprøve netværk, software og firmware efter vulnerabiliteter mere effektivt end menneskelige IT-specialister kan.
En digital våbenkapløb
Der er for mange KI-anvendelser i cyberkriminalitet til at nævne dem alle, men her er nogle få:
- Hackere kunne skjule KI-kode inden for en ellers harmløs ansøgning, der udfører en skadelig adfærd, når den registrerer en forudbestemt udløser eller grænseværdi.
- Skadelige KI-modeller kan bruges til at bestemme legitimationsoplysninger eller IT-ledelsesfunktioner ved at overvåge biometriske indtastninger, såsom fingeraftryk og stemmegenkendelse.
- Selv hvis et forsøg på cyberangreb til sidst mislykkes, kan hackere udstyret med KI muligvis bruge maskinel læring til at afgøre, hvad der gik galt, og hvad de kunne gøre anderledes næste gang.
Det syntes at tage kun én velplaceret historie om at hakke en jeep, mens den kører for at sænke udviklingen af selvstyrende køretøjer til en standstill. Et enkelt højtprofileret hack, hvor KI fungerer som en central del, kan føre til en lignende erosion i offentlighedens mening. Nogle meningsmålinger viser, at den gennemsnitlige amerikaner er meget tvivlsom om KI’s fordele allerede.
Altidtilstedeværende computing medfører cybersecurity-risici – og både “white hat”- og “black hat”-hackere ved det. KI kan hjælpe med at holde vores online-liv sikre, men det er også epicenteret for et nyt digitalt våbenkapløb.












