Refresh

This website www.unite.ai/no/new-study-unveils-hidden-vulnerabilities-in-ai/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

stub Ny studie avslører skjulte sårbarheter i AI - Unite.AI
Kontakt med oss

Kunstig intelligens

Ny studie avslører skjulte sårbarheter i AI

Publisert

 on

I det raskt utviklende landskapet til AI, spenner løftet om transformative endringer over et mylder av felt, fra de revolusjonerende utsiktene til autonome kjøretøy som omformer transport til den sofistikerte bruken av AI for å tolke komplekse medisinske bilder. Utviklingen av AI-teknologier har vært intet mindre enn en digital renessanse, som varsler om en fremtid full av muligheter og fremskritt.

En fersk studie belyser imidlertid et bekymringsfullt aspekt som ofte har blitt oversett: den økte sårbarheten til AI-systemer for målrettede motstandsangrep. Denne avsløringen stiller spørsmål ved robustheten til AI-applikasjoner på kritiske områder og fremhever behovet for en dypere forståelse av disse sårbarhetene.

Konseptet med motstandsangrep

Motstridende angrep i AI-riket er en type cybertrussel der angripere bevisst manipulerer inndataene til et AI-system for å lure det til å ta feil avgjørelser eller klassifiseringer. Disse angrepene utnytter de iboende svakhetene i måten AI-algoritmer behandler og tolker data på.

Vurder for eksempel et autonomt kjøretøy som er avhengig av AI for å gjenkjenne trafikkskilt. Et motstandsangrep kan være så enkelt som å plassere et spesialdesignet klistremerke på et stoppskilt, noe som får AI til å feiltolke det, og potensielt føre til katastrofale konsekvenser. Tilsvarende, i det medisinske feltet, kan en hacker subtilt endre dataene som mates inn i et AI-system ved å analysere røntgenbilder, noe som fører til feil diagnoser. Disse eksemplene understreker den kritiske karakteren til disse sårbarhetene, spesielt i applikasjoner der sikkerhet og menneskeliv står på spill.

Studiens alarmerende funn

Studien, medforfatter av Tianfu Wu, en assoc. professor i elektro- og datateknikk ved North Carolina State University, fordypet seg i utbredelsen av disse motstridende sårbarhetene, og avdekket at de er langt mer vanlige enn tidligere antatt. Denne avsløringen er spesielt bekymringsfull gitt den økende integreringen av AI i kritiske og dagligdagse teknologier.

Wu fremhever alvoret i denne situasjonen, og sier: "Angripere kan dra nytte av disse sårbarhetene for å tvinge AI til å tolke dataene til å være hva de vil. Dette er utrolig viktig fordi hvis et AI-system ikke er robust mot denne typen angrep, vil du ikke ta systemet i praktisk bruk - spesielt for applikasjoner som kan påvirke menneskeliv.»

QuadAttacK: Et verktøy for å avsløre sårbarheter

Som svar på disse funnene utviklet Wu og teamet hans QuadAttacK, en banebrytende programvare utviklet for systematisk å teste dype nevrale nettverk for motstandsdyktige sårbarheter. QuadAttacK opererer ved å observere et AI-systems respons på rene data og lære hvordan det tar beslutninger. Den manipulerer deretter dataene for å teste AIs sårbarhet.

Wu belyser, "QuadAttacK ser på disse operasjonene og lærer hvordan AI tar beslutninger knyttet til dataene. Dette tillater QuadAttacK for å finne ut hvordan dataene kan manipuleres for å lure AI.»

I proof-of-concept-testing, QuadAttacK ble brukt til å evaluere fire mye brukte nevrale nettverk. Resultatene var oppsiktsvekkende.

"Vi ble overrasket over å finne at alle disse fire nettverkene var svært sårbare for motstandsangrep," sier Wu, og fremhever et kritisk problem innen AI.

Disse funnene fungerer som en vekker til AI-forskningsmiljøet og industrier som er avhengige av AI-teknologier. Sikkerhetene som ble avdekket utgjør ikke bare risiko for de nåværende applikasjonene, men sår også tvil om fremtidig distribusjon av AI-systemer i sensitive områder.

En oppfordring til handling for AI-fellesskapet

Offentlig tilgjengelighet av QuadAttacK markerer et betydelig skritt mot bredere forsknings- og utviklingsinnsats for å sikre AI-systemer. Ved å gjøre dette verktøyet tilgjengelig, har Wu og teamet hans gitt en verdifull ressurs for forskere og utviklere for å identifisere og adressere sårbarheter i deres AI-systemer.

Forskergruppens funn og QuadAttacK verktøyet blir presentert på konferansen om nevrale informasjonsbehandlingssystemer (NeurIPS 2023). Hovedforfatteren av artikkelen er Thomas Paniagua, en Ph.D. student ved NC State, sammen med medforfatter Ryan Grainger, også en Ph.D. student ved universitetet. Denne presentasjonen er ikke bare en akademisk øvelse, men en oppfordring til handling for det globale AI-fellesskapet om å prioritere sikkerhet i AI-utvikling.

Når vi står ved krysset mellom AI-innovasjon og -sikkerhet, tilbyr arbeidet til Wu og hans samarbeidspartnere både en advarende historie og et veikart for en fremtid der AI kan være både kraftig og sikker. Reisen videre er kompleks, men avgjørende for bærekraftig integrering av AI i stoffet i vårt digitale samfunn.

Teamet har laget QuadAttacK offentlig tilgjengelig. Du finner den her: https://thomaspaniagua.github.io/quadattack_web/

Alex McFarland er en Brasil-basert forfatter som dekker den siste utviklingen innen kunstig intelligens. Han har jobbet med topp AI-selskaper og publikasjoner over hele verden.