Connect with us

Eksperter på AI rangerer Deepfakes og 19 andre AI-baserte kriminalitetsformer etter faregrad

Kunstig intelligens

Eksperter på AI rangerer Deepfakes og 19 andre AI-baserte kriminalitetsformer etter faregrad

mm

En ny rapport publisert av University College London hadde som mål å identifisere de mange forskjellige måtene AI kunne potensielt assistere kriminelle på over de neste 15 årene. Rapporten hadde 31 forskjellige AI-eksperter som tok 20 forskjellige metoder for å bruke AI til å begå kriminalitet og rangerte disse metodene basert på forskjellige faktorer. AI-ekspertene rangerte kriminaliteten etter variabler som hvor lett kriminaliteten ville være å begå, den potensielle samfunnsskaden kriminaliteten kunne gjøre, mengden penger en kriminell kunne tjene, og hvor vanskelig kriminaliteten ville være å stoppe. Ifølge rapportens resultater, utgjorde Deepfakes den største trusselen mot lovens fuldbyrdelse og samfunnet generelt, ettersom deres potensiale for utnyttelse av kriminelle og terrorister er høyt.

AI-ekspertene rangerte deepfakes øverst på listen over potensielle AI-trusler fordi deepfakes er vanskelige å identifisere og motvirke. Deepfakes blir stadig bedre til å narre selv øynene til deepfake-eksperter, og selv andre AI-baserte metoder for å oppdage deepfakes er ofte upålitelige. Når det gjelder deres evne til skade, kan deepfakes lett brukes av dårlige aktører til å diskreditere troverdige, faglige figurer eller til å prøve å svindel folk ved å utgi seg for å være kjære eller andre troverdige personer. Hvis deepfakes er rikelig, kan folk begynne å miste tillit til alle lyd- eller videomedier, noe som kan gjøre dem miste troen på gyldigheten av virkelige hendelser og fakta.

Dr. Matthew Caldwell, fra UCL Computer Science, var førsteforfatter på papiret. Caldwell understreker den økende faren av deepfakes ettersom stadig mer av vår aktivitet flyttes online. Som Caldwell ble sitert av UCL News:

“Til forskjell fra mange tradisjonelle kriminalitetsformer, kan kriminalitet i det digitale området lett deles, gjentas og selv selges, noe som tillater kriminelle teknikker å markedsføres og for kriminalitet å bli levert som en tjeneste. Dette betyr at kriminelle kan være i stand til å outsourcing av de mer utfordrende aspektene av deres AI-baserte kriminalitet.”

Ekspertteamet rangerte fem andre nye AI-teknologier som høyt bekymringsverdige potensielle katalysatorer for nye typer kriminalitet: sjåførløse kjøretøy som brukes som våpen, hack-angrep på AI-kontrollerte systemer og enheter, online datainnsamling for formålet med å utpresse, AI-basert phishing med tilpassede meldinger og falske nyheter/misinformasjon generelt.

Ifølge Shane Johnson, direktør for Dawes Centre for Future Crimes ved UCL, var målet med studien å identifisere mulige trusler forbundet med nytt fremvoksende teknologi og hypotesere måter å komme foran disse truslene på. Johnson sier at ettersom hastigheten på teknologisk endring øker, er det avgjørende at “vi forutser fremtidige kriminalitets-trusler så at beslutningstakere og andre interessenter med kompetansen til å handle kan gjøre det før nye ‘kriminalitets-høster’ skjer”.

Når det gjelder de fjorten andre mulige kriminalitetsformene på listen, ble de plassert i en av to kategorier: moderat bekymring og lav bekymring.

AI-kriminalitet av moderat bekymring inkluderer misbruk av militær-roboter, data-forgiftning, automatiserte angreps-droner, læring-basert cyberangrep, avvisning av tjeneste-angrep for online-aktiviteter, manipulering av finansielle/aksjemarkeder, slange-olje (salg av svindel-tjenester forkledt i AI/ML-terminologi) og å narre ansiktsgjenkjenning.

Lav bekymring AI-basert kriminalitet inkluderer forfalskning av kunst eller musikk, AI-assistert forfølgelse, falske anmeldelser skrevet av AI, unngåelse av AI-oppdaging-metoder og “innskjennings-roboter” (roboter som bryter inn i folks hjem for å stjele ting).

Selvfølgelig kan AI-modeller selv brukes til å hjelpe med å bekjempe noen av disse kriminalitetsformene. Nylig har AI-modeller blitt deployert for å assistere i oppdaging av pengeskjule-sammenzug, detektering av mistenkelige finansielle transaksjoner. Resultatene analyseres av menneskelige operatører som deretter godkjenner eller avviser advarselen, og tilbakemeldingen brukes til å bedre trene modellen. Det ser ut til å være sannsynlig at fremtiden vil innebære at AI-er blir satt opp mot hverandre, med kriminelle som prøver å designe sine beste AI-assisterte verktøy og sikkerhet, lovhåndheving og andre etiske AI-designere som prøver å designe sine beste AI-systemer.

Blogger og programmerer med spesialområder i Machine Learning og Deep Learning emner. Daniel håper å hjelpe andre med å bruke kraften av AI for sosialt godt.