Tekoäly
Tekoälyasiantuntijat luokittelivat Deepfakesin ja 19 muuta tekoälypohjaista rikosta vaarallisuuden mukaan

Uusi raportti, jonka University College London julkaisi, pyrki tunnistamaan monia eri keinoja, joilla tekoäly voisi mahdollisesti auttaa rikollisia seuraavien 15 vuoden aikana. Raportissa 31 eri tekoälyasiantuntijaa arvioi 20 eri tekoälymenetelmää rikosten tekemiseen ja luokitteli ne eri tekijöiden perusteella. Tekoälyasiantuntijat luokittelivat rikokset muuttujien kuten rikoksen tekemisen helppous, rikoksen aiheuttama mahdollinen yhteiskunnallinen vahinko, rikoksen tuottama rahamäärä ja rikoksen estämisen vaikeus perusteella. Raportin tulosten mukaan Deepfakes muodostaa suurimman uhan lakienmukaisille kansalaisille ja yleisesti yhteiskunnalle, koska niiden hyödyntämisen mahdollisuus rikollisille ja terroristeille on korkea.
Tekoälyasiantuntijat luokittelivat Deepfakesin listan huipulle mahdollisista tekoälyuhista, koska ne ovat vaikeita tunnistaa ja torjua. Deepfakes paranevat jatkuvasti petkuttamaan jopa tekoälyasiantuntijoiden silmiä, ja myös muut tekoälypohjaiset menetelmät Deepfakesin havaitsemiseksi ovat usein epäluotettavia. Vahingon kannalta Deepfakes voidaan helposti käyttää pahantahtoisesti luotettavien, asiantuntijahevosten diskreditointiin tai yrittää huijata ihmisiä esittämällä läheisiä tai muita luotettavia henkilöitä. Jos Deepfakes on runsaasti saatavilla, ihmiset voivat menettää luottamuksensa audio- ja videomateriaaleihin, mikä voi johtaa siihen, että he menettävät uskonsa todellisten tapahtumien ja faktien validiuteen.
Tohtori Matthew Caldwell, UCL Computer Sciencen tutkija, oli ensimmäinen tekijä tutkimuksessa. Caldwell korostaa Deepfakesin kasvavaa vaaraa, kun yhä enemmän toimintaa siirtyy verkkoon. Kuten Caldwellia citattiin UCL Newsissa:
“Toisin kuin monet perinteiset rikokset, rikokset digitaalisessa maailmassa voidaan helposti jakaa, toistaa ja jopa myydä, mikä mahdollistaa rikollisten tekniikoiden markkinoinnin ja rikollisuuden tarjoamisen palveluna. Tämä tarkoittaa, että rikolliset voivat ulkoistaa tekoälypohjaisten rikosten haasteellisimmat osat.”
Asiantuntijaryhmä luokitteli viisi muuta uutta tekoälytekniikkaa huolestuttaviksi mahdollisiksi katalysaattoreiksi uusille rikoksille: ajettavien ajoneuvojen käyttäminen aseina, hakkuhyökkäykset tekoälyohjattuihin järjestelmiin ja laitteisiin, verkkotietojen kerääminen kiristämistarkoituksiin, tekoälypohjainen phishaus, jossa on mukautettuja viestejä, ja väärän uutisoinnin/ylenpalttisen tiedon levittäminen yleisesti.
Shane Johnsonin, Dawes Centre for Future Crimesin johtajan, mukaan tutkimuksen tavoitteena oli tunnistaa mahdolliset uhat uusista teknologioista ja hypätellä niiden yli. Johnson sanoo, että teknologisen muutoksen nopeuden lisääntyessä on tärkeää “ennustaa tulevia rikosuhkia, jotta päättäjät ja muut sidosryhmät, joilla on kyky toimia, voivat tehdä niin ennen kuin uudet ‘rikoskaarnevaalit’ tapahtuvat”.
Noiden 14 muun mahdollisen rikoksen osalta ne jaettiin kahteen kategoriaan: kohtuullinen huoli ja vähäinen huoli.
Tekoälyrikoksia, jotka herättävät kohtuullista huolta, ovat sotilasrobottien väärinkäyttö, datamyrkytys, automaattiset hyökkäysdrone, kyberhyökkäykset, joissa käytetään oppimista, palvelunestohyökkäykset verkkotoiminnassa, rahoitus-/osakemarkkinoiden manipulointi, huijaus (petos, jossa käytetään tekoäly-/ML-terminologiaa) ja kasvojen tunnistamisen petkuttaminen.
Vähäistä huolta aiheuttavat tekoälypohjaiset rikokset ovat taiteen tai musiikin väärentäminen, tekoälyavusteinen stalkkaus, tekoälyllä kirjoitetut väärät arvostelut, tekoälytunnistusmenetelmien välttäminen ja “murto-botit” (botit, jotka murtavat kotiin varastamaan).
Tietysti tekoälymallit voivat itsekin auttaa torjumaan joitakin näistä rikoksista. Viime aikoina tekoälymallit on käytetty rahanpesun havaitsemiseen, epäilyttävien rahanliiketoimien tunnistamiseen. Tulokset analyysoidaan ihmishoitajien toimesta, jotka sitten hyväksyvät tai hylkäävät hälytyksen, ja palautetta käytetään mallin kouluttamiseen. Vaikuttaa siltä, että tulevaisuudessa tekoälyjärjestelmiä käytetään toisiaan vastaan, kun rikolliset yrittävät suunnitella parhaat tekoälyavusteiset työkalunsa ja turvallisuus, lainvalvonta ja muut eettiset tekoälysuunnittelijat yrittävät suunnitella omat parhaat tekoälyjärjestelmänsä.












