Kunstig intelligens
Eksperter i kunstig intelligens rangerer Deepfakes og 19 andre AI-baserede forbrydelser efter fare niveau

En ny rapport offentliggjort af University College London havde til formål at identificere de mange forskellige måder, hvorpå AI potentielt kan hjælpe kriminelle i de næste 15 år. Rapporten havde 31 forskellige eksperter i AI, der tog 20 forskellige metoder til at bruge AI til at begå forbrydelser og rangere disse metoder efter forskellige faktorer. Eksperterne i AI rangerede forbrydelserne efter variabler som, hvor let forbrydelsen ville være at begå, den potentielle samfundsskade forbrydelsen kunne gøre, det beløb en kriminel kunne tjene, og hvor svært forbrydelsen ville være at standse. Ifølge rapportens resultater udgjorde Deepfakes den største trussel mod lovlydige borgere og samfundet generelt, da deres potentiale for udnyttelse af kriminelle og terrorister er højt.
Eksperterne i AI rangerede deepfakes øverst på listen over potentielle AI-trusler, fordi deepfakes er svære at identificere og modvirke. Deepfakes bliver konstant bedre til at narre selv øjnene af deepfake-eksperter, og selv andre AI-baserede metoder til at opdage deepfakes er ofte upålidelige. I forhold til deres evne til at skade, kan deepfakes let bruges af dårlige aktører til at diskreditere troværdige, eksperter eller til at forsøge at snyde mennesker ved at udgive sig for elskede eller andre troværdige personer. Hvis deepfakes er talrige, kan mennesker begynde at miste tillid til enhver lyd- eller video-medie, hvilket kan få dem til at tabe troen på den faktiske begivenheds og faktums gyldighed.
Dr. Matthew Caldwell, fra UCL Computer Science, var den første forfatter på artiklen. Caldwell understreger den voksende fare for deepfakes, da mere og mere af vores aktivitet flytter online. Som Caldwell citeres af UCL News:
“Til forskel fra mange traditionelle forbrydelser, kan forbrydelser i den digitale verden let deles, gentages og endda sælges, hvilket tillader kriminelle teknikker at markedsføres og til at kriminalitet kan leveres som en service. Dette betyder, at kriminelle måske kan outsourcere de mere udfordrende aspekter af deres AI-baserede kriminalitet.”
Ekspertteamet rangerede fem andre opkomne AI-teknologier som højt bekymrende potentielle katalysatorer for nye typer kriminalitet: selvstyrende køretøjer, der bruges som våben, hack-angreb på AI-styrede systemer og enheder, online-dataindsamling til formål af afpresning, AI-baseret phishing med tilpassede meddelelser og falske nyheder/misinformation generelt.
Ifølge Shane Johnson, direktøren for Dawes Centre for Future Crimes ved UCL, var formålet med studiet at identificere mulige trusler i forbindelse med nyligt opkomne teknologier og at hypotesere måder at komme foran disse trusler på. Johnson siger, at da hastigheden af teknologisk ændring øges, er det afgørende, at “vi forudser fremtidige kriminalitets-trusler, således at beslutningstagerne og andre interessenter med kompetence kan handle, før nye ‘kriminalitets-høsten’ finder sted”.
Med hensyn til de fjorten andre mulige forbrydelser på listen, blev de inddelt i en af to kategorier: moderat bekymring og lav bekymring.
AI-forbrydelser af moderat bekymring omfatter misbrug af militær-robotter, data-forgiftning, automatiserede angrebs-droner, læring-baserede cyberangreb, afvisning af service-angreb for online-aktiviteter, manipulation af finans-/aktiemarkeder, slange-olie (salg af svindel-tjenester forkledt i AI/ML-terminologi) og narre ansigtsgenkendelse.
Lav bekymring AI-baserede forbrydelser omfatter forfalskning af kunst eller musik, AI-assisteret forfølgelse, falske anmeldelser skrevet af AI, undgåelse af AI-detection-metoder og “indbrud-robotter” (robotter, der bryder ind i menneskers hjem for at stjæle ting).
Selvfølgelig kan AI-modeller selv bruges til at bekæmpe nogle af disse forbrydelser. For nylig er AI-modeller blevet anvendt til at assistere i opdækkelsen af pengevask-scheme, hvor der opdages mistænkelige finansielle transaktioner. Resultaterne analyseres af menneskelige operatører, der derefter godkender eller afviser alarmen, og feedbacken bruges til at bedre træne modellen. Det synes sandsynligt, at fremtiden vil indebære, at AI’er bliver sat op imod hinanden, hvor kriminelle forsøger at designe deres bedste AI-assisterede værktøjer, og sikkerhed, loven, og andre etiske AI-designere forsøger at designe deres bedste AI-systemer.












