Intelligence artificielle
Intelligence artificielle trompeuse : Exploitation de modèles génératifs dans des schémas criminels
L’intelligence artificielle générative, un sous-ensemble de l’intelligence artificielle, a rapidement gagné en importance en raison de sa remarquable capacité à générer diverses formes de contenu, notamment du texte ressemblant à celui des humains, des images réalistes et de l’audio, à partir de vastes ensembles de données. Des modèles tels que GPT-3, DALL-E et Réseaux antagonistes génératifs (GANs) ont démontré des capacités exceptionnelles à cet égard.
Un rapport Deloitte met en évidence la nature double de l’intelligence artificielle générative et souligne la nécessité de vigilance contre l’intelligence artificielle trompeuse. Alors que les progrès de l’IA aident à prévenir les crimes, ils donnent également le pouvoir aux acteurs malveillants. Malgré les applications légitimes, ces outils puissants sont de plus en plus exploités par les cybercriminels, les fraudeurs et les acteurs affiliés à l’État, ce qui entraîne une augmentation des schémas complexes et trompeurs.
L’essor de l’intelligence artificielle générative dans les activités criminelles
L’essor de l’intelligence artificielle générative a conduit à une augmentation des activités trompeuses affectant à la fois le cyberspace et la vie quotidienne. Le phishing, une technique pour tromper les individus en les amenant à divulguer des informations sensibles, utilise désormais l’intelligence artificielle générative pour rendre les e-mails de phishing très convaincants. Alors que ChatGPT gagne en popularité, les e-mails de phishing ont augmenté, les criminels utilisant cela pour créer des messages personnalisés qui ressemblent à des communications légitimes.
Ces e-mails, tels que des alertes bancaires fausses ou des offres alléchantes, profitent de la psychologie humaine pour tromper les destinataires et leur faire divulguer des données sensibles. Bien que OpenAI interdise l’utilisation illégale de ses modèles, il n’est pas facile de faire respecter cela. Des invites innocentes peuvent facilement se transformer en schémas malveillants, nécessitant à la fois des réviseurs humains et des systèmes automatisés pour détecter et prévenir les abus.
De même, la fraude financière a également augmenté avec les progrès de l’IA. L’intelligence artificielle générative alimente les arnaques, créant du contenu qui trompe les investisseurs et manipule le sentiment du marché. Imaginez rencontrer un chatbot, apparemment humain mais conçu uniquement pour la tromperie. L’intelligence artificielle générative alimente ces bots, engageant les utilisateurs dans des conversations apparemment authentiques tout en extrayant des informations sensibles. Les modèles génératifs améliorent également les attaques d’ingénierie sociale en créant des messages personnalisés qui exploitent la confiance, l’empathie et l’urgence. Les victimes tombent dans les pièges des demandes d’argent, de données confidentielles ou de codes d’accès.
Le doxxing, qui consiste à révéler des informations personnelles sur des individus, est un autre domaine où l’intelligence artificielle générative aide les criminels. Que ce soit pour démasquer des personnalités en ligne anonymes ou pour exposer des détails privés, l’IA amplifie l’impact, conduisant à des conséquences dans le monde réel telles que le vol d’identité et le harcèlement.
Et puis il y a les deepfakes, des vidéos, des extraits audio ou des images générés par l’IA qui sont très réalistes. Ces doubles numériques brouillent la réalité, posant des risques allant de la manipulation politique à l’assassinat de caractère.
Incidents de deepfakes notables avec des impacts critiques
L’utilisation abusive de l’intelligence artificielle générative a conduit à une série d’incidents inhabituels, mettant en évidence les risques et les défis importants posés par cette technologie lorsqu’elle tombe entre les mains incorrectes. La technologie de deepfake, en particulier, brouille les lignes entre la réalité et la fiction. Résultant de l’union de GANs et de malveillance créative, les deepfakes mélangent des éléments réels et fabriqués. Les GANs se composent de deux réseaux de neurones : le générateur et le discriminateur. Le générateur crée un contenu de plus en plus réaliste, tel que des visages, tandis que le discriminateur essaie de repérer les faux.
Des incidents notables impliquant des deepfakes se sont déjà produits. Par exemple, Dessa a utilisé un modèle d’IA pour créer un clone de voix convaincant de Joe Rogan, démontrant la capacité de l’IA à produire des voix fausses réalistes. Les deepfakes ont également eu un impact significatif sur la politique, comme le montrent divers exemples. Par exemple, un robocall imitant le président américain Joe Biden a trompé les électeurs du New Hampshire, tandis que des enregistrements audio générés par l’IA en Slovaquie imitaient un candidat libéral pour influencer les résultats des élections. Plusieurs incidents similaires ont été signalés, affectant la politique de nombreux pays.
Les arnaques financières ont également utilisé des deepfakes. Une société d’ingénierie britannique nommée Arup est tombée victime d’une arnaque de deepfake de 20 millions de livres sterling, dans laquelle un travailleur financier a été trompé pour transférer des fonds lors d’un appel vidéo avec des fraudeurs utilisant des voix et des images générées par l’IA pour imiter les dirigeants de l’entreprise. Cela met en évidence le potentiel de l’IA pour la fraude financière.
Les cybercriminels ont de plus en plus exploité les outils d’intelligence artificielle générative comme WormGPT et FraudGPT pour renforcer leurs attaques, créant une menace importante pour la cybersécurité. WormGPT, basé sur le modèle GPT-J, facilite les activités malveillantes sans restrictions éthiques. Les chercheurs de SlashNext l’ont utilisé pour créer un e-mail de facture frauduleuse très persuasif. FraudGPT, diffusé sur les canaux Telegram, est conçu pour des attaques complexes et peut générer du code malveillant, créer des pages de phishing convaincantes et identifier les vulnérabilités des systèmes. L’émergence de ces outils met en évidence la sophistication croissante des menaces cybernétiques et la nécessité urgente de mesures de sécurité renforcées.
Implications juridiques et éthiques
Les implications juridiques et éthiques de la tromperie basée sur l’IA présentent une tâche formidable au milieu des progrès rapides dans les modèles génératifs. Actuellement, l’IA opère dans une zone grise réglementaire, les décideurs politiques ayant du mal à suivre les développements technologiques. Des cadres solides sont nécessaires pour limiter les abus et protéger le public des arnaques et des activités frauduleuses basées sur l’IA.
De plus, les créateurs d’IA portent une responsabilité éthique. La transparence, la divulgation et le respect des directives sont des aspects essentiels du développement responsable de l’IA. Les développeurs doivent anticiper les utilisations abusives potentielles et concevoir des mesures pour que leurs modèles d’IA atténuent efficacement les risques.
Maintenir un équilibre entre innovation et sécurité est important pour relever les défis posés par la fraude basée sur l’IA. Une réglementation excessive peut restreindre les progrès, tandis qu’une surveillance laxiste invite au chaos. Par conséquent, des réglementations qui favorisent l’innovation sans compromettre la sécurité sont impératives pour un développement durable.
En outre, les modèles d’IA devraient être conçus en tenant compte de la sécurité et de l’éthique. L’intégration de fonctionnalités telles que la détection des préjugés, les tests de robustesse et la formation antagoniste peut renforcer la résilience contre l’exploitation malveillante. C’est particulièrement important compte tenu de la sophistication croissante des arnaques basées sur l’IA, soulignant la nécessité d’une prévoyance éthique et d’une agilité réglementaire pour se protéger contre le potentiel trompeur des modèles d’IA génératifs.
Stratégies d’atténuation
Les stratégies d’atténuation pour lutter contre l’utilisation trompeuse des modèles d’IA génératifs nécessitent une approche multifacette impliquant des mesures de sécurité améliorées et une collaboration entre les parties prenantes. Les organisations doivent employer des réviseurs humains pour évaluer le contenu généré par l’IA, utilisant leur expertise pour identifier les modèles d’abus et affiner les modèles. Les systèmes automatisés équipés d’algorithmes avancés peuvent analyser les indicateurs de fraude, les activités malveillantes ou la désinformation, servant de systèmes d’alerte précoce contre les actions frauduleuses.
De plus, la collaboration entre les sociétés de technologie, les agences de lutte contre la criminalité et les décideurs politiques est vitale pour détecter et prévenir les tromperies basées sur l’IA. Les géants de la technologie doivent partager des informations, des meilleures pratiques et des renseignements sur les menaces, tandis que les agences de lutte contre la criminalité travaillent en étroite collaboration avec les experts en IA pour rester en avance sur les criminels. Les décideurs politiques doivent s’engager avec les sociétés de technologie, les chercheurs et la société civile pour créer des réglementations efficaces, soulignant l’importance de la coopération internationale pour lutter contre les tromperies basées sur l’IA.
En regardant vers l’avenir, l’avenir de l’intelligence artificielle générative et de la prévention de la criminalité se caractérise à la fois par des défis et des opportunités. Alors que l’intelligence artificielle générative évolue, les tactiques criminelles évolueront également, les progrès dans l’IA quantique, le calcul de bord et les modèles décentralisés façonnant le domaine. Par conséquent, l’éducation sur le développement éthique de l’IA devient de plus en plus fondamentale, les écoles et les universités étant encouragées à rendre les cours d’éthique obligatoires pour les praticiens de l’IA.
En résumé
L’intelligence artificielle générative présente à la fois des avantages immenses et des risques importants, soulignant la nécessité urgente de cadres réglementaires solides et de développement éthique de l’IA. Alors que les cybercriminels exploitent des outils avancés, des stratégies d’atténuation efficaces, telles que la surveillance humaine, les algorithmes de détection avancés et la coopération internationale, sont essentielles.
En équilibrant l’innovation et la sécurité, en promouvant la transparence et en concevant des modèles d’IA avec des garanties intégrées, nous pouvons lutter efficacement contre la menace croissante de la tromperie basée sur l’IA et assurer un environnement technologique plus sûr pour l’avenir.












