Connect with us

Cybersikkerhet

Hvordan hakere utnytter kunstig intelligens

mm

KI har vist seg å være en verdiøkende teknologi over hele den globale økonomien.

Da bedrifter måtte tilpasse seg nåværende hendelser over de siste årene, fant noen av dem måter å proppe inn et halvt årsverk – i Frito-Lays tilfelle – av digitale transformasjoner inn i en mye kortere tidsramme. Harris Poll og Appen fant ut at KI-budsjettene økte med 55% under den globale pandemien.

Som ethvert verktøy, har kunstig intelligens ingen innebygd moralsk verdi. KI sin nytte eller potensiale for skade kommer ned til hvordan systemet “lærer” og hva mennesker ultimate gjør med det.

Noen forsøk på å utnytte KI – som for eksempel “å forutsi” kriminalitet før den skjer – viser at modeller trent på fordomsfulle data tenderer til å replikere menneskelige svakheter. Hittil har trening av KI ved hjelp av data fra USAs justissystem resultert i tragisk fordomsfulle KI-resonnering.

I andre eksempler velger mennesker mer bevisste måter å utnytte KI sin destruktive potensiale. Hakere viser sine innovative tendenser igjen ved å bruke kunstig intelligens til å forbedre rekkevidden, effektiviteten og lønnsomheten til deres angrep. Og ettersom cyberkrigføring blir mer og mer vanlig over hele verden, vil vi sikkert se på anvendelsene av KI i hacking utvikle seg enda videre.

KI er en mulighet og en risiko

Kunstig intelligens tilbyr en verden av muligheter for bedrifter som ønsker å forbedre prognoser, forretningsoptimalisering og kundetrethetsstrategier. Det er også en gullgruve for de som har til hensikt å kompromittere andres digitale suverenitet.

Her er noen måter kunstig intelligens kan være utsatt for diskret manipulering og mer åpenbare forsøk på å vende den mot aggressive handlinger.

1. Kompromittering av maskinlogikk

Den viktigste fordelen med KI for forbrukere og kommersielle foretak er at den utfører forutsigbare og gjentakende handlinger av logikk uten menneskelig inngripen. Dette er også dens største svakhet.

Som ethvert annet digitalt konstrukt, kan KI være utsatt for penetrering fra utenfor. Hakere som får tilgang til og kompromitterer maskinlogikken som driver KI, kan forårsake at den utfører uforutsigbare eller skadelige handlinger. For eksempel kan en KI som er tilordnet industriell tilstands-overvåking, levere feilaktige lesninger eller la vedlikeholds-ping gå uten å bli levert.

Siden hele poenget med KI-investeringer er å eliminere menneskelig inngripen og tvil på resultater, kan skaden på infrastruktur eller produktkvalitet forårsaket av et angrep av denne typen, kanskje ikke bli merket før en katastrofal feil.

2. Utnytting av reverseringsalgoritmer

En annen potensiell årsak til skade – spesielt der intellektuell eiendom (IP) og forbruker- eller kommersiell data er involvert – er begrepet reversering. Hakere kan til og med stjele kunstig intelligens-koden selv. Med nok tid til å studere hvordan den fungerer, kan de til slutt avdekke datamengdene som brukes til å trene KI fra første sted.

Dette kan føre til flere resultater, det første av dem er KI-forgiftning. Andre eksempler kan involvere hakere som utnytter KI-treningdata selv til å avdekke kompromitterende informasjon om markeder, konkurrenter, regjeringer, leverandører eller generelle forbrukere.

3. Læring om mål

Overvåking av mål er sannsynligvis en av de mer urovekkende implikasjonene av at KI havner i hendene på hakere. KI sin evne til å komme til konklusjoner om en persons evner, kunnskapsområder, temperament og sannsynligheten for å bli offer for måling, svindel eller misbruk, er vist å være særlig urovekkende for noen sikkerhetseksperten.

Kunstig intelligens kan innta og komme til overraskende detaljerte konklusjoner om mennesker, lag og grupper basert på noen av de mest usannsynlige datapunktene. En “engasjert” eller “forvirret” person kan skrive raskt, leke med musen eller flytte mellom nettleserfane raskt. En bruker som er “forvirret” eller “tøff” kan pause før de klikker på sideelementer eller besøke flere nettsteder.

I de riktige hendene, hjelper slike signaler HR-avdelinger å forbedre ansattengasjement eller hjelpe markedsføringslag å polere sine nettsider og salgsfunneler.

For hakere kan signaler som disse føre til en overraskende nyansert psykologisk profil av et mål. Cyberkriminelle kan kanskje avgjøre basert på hint usynlige for mennesker hvilke personer som kan være sårbare for phishing, smishing, ransomware, finansiell svindel og andre typer skade. Det kan også hjelpe dårlige aktører å lære hvordan de kan overbevise sine mål om at deres svindelforsøk kommer fra legitime kilder.

4. Prøving av nettverkssvakheter

Sikkerhetseksperten publiserte data om 20,175 kjente sikkerhetssvakheter i 2021. Dette var en økning fra 2020, da det var 17,049 slike svakheter.

Verden blir mer digitalt sammenkoblet – noen ville si avhengig – for hver time. Verden har nå en forbløffende mengde småskalige og industrielle nettverk, med milliarder av tilkoblede enheter online og flere på vei. Alt er online, fra tilstands-overvåkningssensorene til bedriftsplanleggingsprogramvare.

Kunstig intelligens viser løfte i å hjelpe sikkerhetsteamene raskt å prøve nettverk-, programvare- og maskinvare-svakheter raskere enn menneskelige IT-eksperter kan alene. Hastigheten og skalaen på veksten av jordens digitale infrastruktur gjør det nesten umulig å søke gjennom trillioner av kode-linjer for sikkerhetssvakheter å fikse. Dette må skje mens disse systemene er online på grunn av kostnadene ved nedtid.

Hvis KI er et sikkerhetsverktøy her, er det også et toegget sverd. Hakere kan bruke samme mekanismer som “white hat”-IT-flokken til å utføre samme arbeid: prøving av nettverk, programvare og firmware for svakheter mer effektivt enn menneskelige IT-eksperter kan.

En digital våpenkappløp

Det er for mange KI-anvendelser i cyberkriminalitet å nevne alle, men her er noen flere:

  • Hakere kan skjule KI-kode innenfor en ellers harmløs applikasjon som utfører en skadelig handling når den detekterer en forhåndsbestemt utløser eller terskel.
  • Skadelige KI-modeller kan brukes til å bestemme legitimasjon eller IT-ledelsesfunksjoner ved å overvåke biometrisk inndata, som for eksempel fingeravtrykk og talegjenkjenning.
  • Selv om et forsøk på cyberangrep til slutt feiler, kan hakere utstyrt med KI bruke maskinlæring til å bestemme hva som gikk galt og hva de kunne gjøre annerledes neste gang.

Det syntes å ta bare en velplassert historie om hacking av en jeep mens den kjører til å bremse utviklingen av selvkjørende kjøretøy. Et høytprofileringsangrep hvor KI fungerer som en nøkkel kan føre til en lignende erosjon i offentlig mening. Noen meningsmålinger viser at den gjennomsnittlige amerikaneren er høyt skeptisk til KI sine fordeler allerede.

Allomfattende datamaskinbruk kommer med sikkerhetsrisiko – og både “white hat” og “black hat”-hakere vet det. KI kan hjelpe med å holde våre nett-liv trygge, men det er også epicentrum for en ny digital våpenkappløp.

Zac Amos er en teknisk forfatter som fokuserer på kunstig intelligens. Han er også redaktør for artikler i ReHack, der du kan lese mer av hans arbeid.