Cybersécurité
Les experts en IA classent les deepfakes et 19 autres crimes basés sur l'IA par niveau de danger

Une nouvelle rapport publié par l'University College London visait à identifier les nombreuses façons dont l'IA pourrait potentiellement aider les criminels au cours des 15 prochaines années. Le rapport a demandé à 31 experts différents en IA d’utiliser 20 méthodes différentes d’utilisation de l’IA pour commettre des crimes et de classer ces méthodes en fonction de divers facteurs. Les experts en IA ont classé les crimes en fonction de variables telles que la facilité avec laquelle le crime serait commis, le préjudice sociétal potentiel qu'il pourrait causer, le montant d'argent qu'un criminel pourrait gagner et la difficulté à arrêter le crime. Selon les résultats du rapport, les Deepfakes constituent la plus grande menace pour les citoyens respectueux des lois et pour la société en général, car leur potentiel d'exploitation par des criminels et des terroristes est élevé.
Les experts en IA ont classé les deepfakes en tête de liste des menaces potentielles de l'IA, car les deepfakes sont difficiles à identifier et à contrer. Les deepfakes s'améliorent constamment pour tromper même les yeux des experts en deepfake et même d'autres méthodes basées sur l'IA pour détecter les deepfakes ne sont souvent pas fiables. En termes de capacité de nuisance, les deepfakes peuvent facilement être utilisés par de mauvais acteurs pour discréditer des personnalités expertes de confiance ou pour tenter d'escroquer des personnes en se faisant passer pour des êtres chers ou d'autres personnes de confiance. Si les deepfakes sont abondants, les gens pourraient commencer à perdre confiance dans n'importe quel média audio ou vidéo, ce qui pourrait leur faire perdre confiance dans la validité des événements et des faits réels.
Le Dr Matthew Caldwell, de l'UCL Computer Science, a été le premier auteur de l'article. Caldwell souligne le danger croissant des deepfakes alors que de plus en plus de nos activités se déplacent en ligne. Comme Caldwell a été cité par UCL News :
« Contrairement à de nombreux crimes traditionnels, les crimes dans le domaine numérique peuvent être facilement partagés, répétés et même vendus, ce qui permet de commercialiser des techniques criminelles et de fournir le crime en tant que service. Cela signifie que les criminels peuvent être en mesure d'externaliser les aspects les plus difficiles de leur crime basé sur l'IA. »
L'équipe d'experts a classé cinq autres technologies d'IA émergentes comme des catalyseurs potentiels très préoccupants pour de nouveaux types de criminalité : les véhicules sans conducteur utilisés comme armes, les attaques de piratage sur les systèmes et appareils contrôlés par l'IA, la collecte de données en ligne à des fins de chantage, les technologies basées sur l'IA. le phishing avec des messages personnalisés et les fausses nouvelles/désinformations en général.
D'après Shane Johnson, directeur du Dawes Center for Future Crimes à l'UCL, l'objectif de l'étude était d'identifier les menaces possibles associées aux nouvelles technologies émergentes et d'émettre des hypothèses sur les moyens de devancer ces menaces. Johnson dit qu'à mesure que la vitesse du changement technologique augmente, il est impératif que "nous anticipions les futures menaces criminelles afin que les décideurs politiques et les autres parties prenantes ayant la compétence d'agir puissent le faire avant que de nouvelles 'récoltes criminelles' ne se produisent".
En ce qui concerne les quatorze autres crimes possibles sur la liste, ils ont été classés dans l'une des deux catégories suivantes : préoccupation modérée et faible préoccupation.
Les crimes liés à l'IA de préoccupation modérée comprennent l'utilisation abusive de robots militaires, l'empoisonnement des données, les drones d'attaque automatisés, les cyberattaques basées sur l'apprentissage, les attaques par déni de service pour les activités en ligne, la manipulation des marchés financiers/boursiers, l'huile de serpent (vente de services frauduleux dissimulés dans l'IA/ML terminologie) et tromper la reconnaissance faciale.
Les crimes basés sur l'IA peu préoccupants incluent la contrefaçon d'œuvres d'art ou de musique, le harcèlement criminel assisté par l'IA, les fausses critiques rédigées par l'IA, le contournement des méthodes de détection de l'IA et les «robots cambrioleurs» (des robots qui pénètrent dans les maisons des gens pour voler des choses).
Bien sûr, les modèles d'IA eux-mêmes peuvent être utilisés pour aider à combattre certains de ces crimes. Récemment, des modèles d'IA ont été déployés pour aider à la détection des schémas de blanchiment d'argent, détectant les transactions financières suspectes. Les résultats sont analysés par des opérateurs humains qui approuvent ou refusent ensuite l'alerte, et les commentaires sont utilisés pour mieux former le modèle. Il semble probable que l'avenir impliquera que les IA s'affrontent les unes contre les autres, les criminels essayant de concevoir leurs meilleurs outils et sécurité assistés par l'IA, les forces de l'ordre et d'autres concepteurs d'IA éthiques essayant de concevoir leurs propres meilleurs systèmes d'IA.












