Connect with us

Comment les deepfakes alimentés par l’IA menacent l’intégrité des élections — Et que faire à ce sujet

Leaders d’opinion

Comment les deepfakes alimentés par l’IA menacent l’intégrité des élections — Et que faire à ce sujet

mm

Les publicités de campagne peuvent déjà être un peu confuses et controversées.

Imaginez que vous êtes ciblé par une publicité de campagne dans laquelle un candidat exprime des positions fortes qui influencent votre vote — et que la publicité n’est même pas réelle. C’est un deepfake.

Ce n’est pas un hypothétique futuriste ; les deepfakes sont un problème réel et omniprésent. Nous avons déjà vu des « soutiens » générés par l’IA faire les gros titres, et ce que nous avons entendu ne représente que la surface du problème.

Alors que nous nous approchons de l’élection présidentielle américaine de 2024, nous entrons dans un territoire inconnu en matière de cybersécurité et d’intégrité de l’information. J’ai travaillé à l’intersection de la cybersécurité et de l’IA depuis que ces deux concepts sont nés, et je n’ai jamais vu quelque chose comme ce qui se passe actuellement.

L’évolution rapide de l’intelligence artificielle — en particulier l’IA générative et, bien sûr, la facilité de créer des deepfakes réalistes — a transformé le paysage des menaces électorales. Cette nouvelle réalité exige un changement dans les hypothèses de base concernant la sécurité électorale et l’éducation des électeurs.

IA militarisée

Vous n’avez pas à prendre mon expérience personnelle comme preuve ; il y a suffisamment de preuves que les défis de cybersécurité que nous affrontons aujourd’hui évoluent à un rythme sans précédent. En l’espace de quelques années seulement, nous avons été témoins d’une transformation dramatique des capacités et des méthodologies des acteurs de menace potentiels. Cette évolution reflète le développement accéléré que nous avons vu dans les technologies de l’IA, mais avec une touche inquiétante.

Cas de figure :

  • Militarisation rapide des vulnérabilités. Les attaquants d’aujourd’hui peuvent exploiter rapidement les vulnérabilités nouvellement découvertes, souvent plus rapidement que les correctifs ne peuvent être développés et déployés. Les outils de l’IA accélèrent encore ce processus, réduisant la fenêtre entre la découverte de la vulnérabilité et son exploitation.
  • Surface d’attaque élargie. L’adoption généralisée des technologies cloud a considérablement élargi la surface d’attaque potentielle. L’infrastructure distribuée et le modèle de responsabilité partagée entre les fournisseurs de cloud et les utilisateurs créent de nouveaux vecteurs d’exploitation si ceux-ci ne sont pas gérés correctement.
  • Mesures de sécurité traditionnelles obsolètes. Les outils de sécurité traditionnels comme les pare-feu et les logiciels antivirus luttent pour suivre le rythme de ces menaces en évolution, en particulier lorsqu’il s’agit de détecter et d’atténuer le contenu généré par l’IA.

Regardez qui parle

Dans ce nouveau paysage de menaces, les deepfakes représentent un défi particulièrement insidieux pour l’intégrité des élections. Des recherches récentes d’Ivanti donnent des chiffres à la menace : plus de la moitié des travailleurs de bureau (54 %) ne sont pas conscients que l’IA avancée peut imiter la voix de n’importe qui. Ce manque de sensibilisation parmi les électeurs potentiels est profondément préoccupant à mesure que nous nous approchons d’un cycle électoral critique.

Il y a tellement en jeu.

La sophistication de la technologie de deepfake d’aujourd’hui permet aux acteurs de menace, tant étrangers que nationaux, de créer du contenu faux audio, vidéo et texte convaincant avec un minimum d’effort. Une simple invite de texte peut maintenant générer un deepfake de plus en plus difficile à distinguer du contenu réel. Cette capacité a des implications graves pour la propagation de la désinformation et la manipulation de l’opinion publique.

Défis d’attribution et d’atténuation

L’attribution est l’un des défis les plus importants auxquels nous sommes confrontés avec l’ingérence électorale générée par l’IA. Alors que nous avons historiquement associé l’ingérence électorale à des acteurs étatiques, la démocratisation des outils de l’IA signifie que des groupes nationaux, animés par diverses motivations idéologiques, peuvent maintenant utiliser ces technologies pour influencer les élections.

Cette diffusion des acteurs de menace potentiels complique notre capacité à identifier et à atténuer les sources de désinformation. Cela souligne également la nécessité d’une approche multifacette de la sécurité électorale qui va au-delà des mesures de cybersécurité traditionnelles.

Un effort coordonné pour préserver l’intégrité des élections

Pour relever le défi des deepfakes alimentés par l’IA dans les élections, il faudra un effort coordonné à travers plusieurs secteurs. Voici les domaines clés où nous devons concentrer nos efforts :

  • Sécurité Shift-Left pour les systèmes IA. Nous devons appliquer les principes de la sécurité « Shift-Left » au développement des systèmes IA eux-mêmes. Cela signifie intégrer les considérations de sécurité dès les premières étapes du développement du modèle IA, y compris les considérations pour une utilisation potentielle abusive dans l’ingérence électorale.
  • Mise en œuvre de configurations sécurisées. Les systèmes et les plateformes IA qui pourraient potentiellement être utilisés pour générer des deepfakes devraient avoir des configurations sécurisées robustes par défaut. Cela inclut des mesures d’authentification solides et des restrictions sur les types de contenu qui peuvent être générés.
  • Sécurisation de la chaîne d’approvisionnement IA. Tout comme nous nous concentrons sur la sécurisation de la chaîne d’approvisionnement logicielle, nous devons étendre cette vigilance à la chaîne d’approvisionnement IA. Cela inclut l’examen attentif des ensembles de données utilisés pour former les modèles IA et des algorithmes employés dans les systèmes IA génératifs.
  • Capacités de détection améliorées. Nous devons investir dans et développer des outils de détection avancés capables d’identifier le contenu généré par l’IA, en particulier dans le contexte des informations liées aux élections. Cela impliquera probablement l’utilisation de l’IA elle-même pour lutter contre la désinformation générée par l’IA.
  • Éducation et sensibilisation des électeurs. Un composant crucial de notre défense contre les deepfakes est un électorat éclairé. Nous avons besoin de programmes d’éducation complets pour aider les électeurs à comprendre l’existence et l’impact potentiel du contenu généré par l’IA, et pour leur fournir des outils pour évaluer de manière critique les informations qu’ils rencontrent.
  • Collaboration intersectorielle. Le secteur technologique, en particulier les sociétés de TI et de cybersécurité, doit travailler en étroite collaboration avec les agences gouvernementales, les responsables des élections et les organisations médiatiques pour créer un front uni contre l’ingérence électorale alimentée par l’IA.

Qu’est-ce qui se passe maintenant, et qu’est-ce qui se passera ensuite

Alors que nous mettons en œuvre ces stratégies, il est crucial que nous mesurions en continu leur efficacité. Cela nécessitera de nouveaux indicateurs et des outils de surveillance spécifiquement conçus pour suivre l’impact du contenu généré par l’IA sur le discours électoral et le comportement des électeurs.

Nous devons également être prêts à adapter rapidement nos stratégies. Le domaine de l’IA évolue à un rythme vertigineux, et nos mesures de défense doivent évoluer tout aussi rapidement. Cela peut impliquer l’utilisation de l’IA elle-même pour créer des mesures de sécurité plus robustes et adaptables.

Le défi des deepfakes alimentés par l’IA dans les élections représente un nouveau chapitre en matière de cybersécurité et d’intégrité de l’information. Pour y faire face, nous devons penser au-delà des paradigmes de sécurité traditionnels et favoriser la collaboration entre les secteurs et les disciplines. L’objectif : exploiter le pouvoir de l’IA pour le bénéfice des processus démocratiques tout en atténuant son potentiel de nuisance. Il s’agit non seulement d’un défi technique, mais également d’un défi sociétal qui nécessitera une vigilance, une adaptation et une coopération continues.

L’intégrité de nos élections – et, par extension, la santé de notre démocratie – dépend de notre capacité à relever ce défi de front. C’est une responsabilité qui incombe à nous tous : technologistes, décideurs et citoyens.

Le Dr Srinivas Mukkamala est le directeur principal des produits pour Ivanti. Il était le fondateur et le PDG de RiskSense jusqu'à ce qu'Ivanti acquière l'entreprise en août 2021.

Il a rejoint Ivanti en tant que responsable des solutions de sécurité Ivanti et a joué un rôle instrumental dans l'intégration du portefeuille et de l'équipe RiskSense dans la stratégie d'Ivanti. Il est une autorité reconnue dans les communautés d'intelligence artificielle (IA) et de réseaux neuronaux et faisait partie d'un groupe de réflexion qui a collaboré avec le ministère de la Défense des États-Unis pour appliquer ces concepts à des problèmes de cybersécurité.

Le Dr Mukkamala est responsable de la gestion des produits pour toutes les solutions Ivanti et continuera à stimuler l'innovation dans les solutions intégrées dans tous les piliers de l'entreprise : ITSM, Sécurité et UEM.​

Le Dr Mukkamala était également un chercheur principal pour CACTUS (Analyse computationnelle du cyberterrorisme contre les États-Unis) et détient un brevet sur les agents intelligents pour le système de détection d'intrusion distribuée et la méthode de pratique.​

Le Dr Mukkamala détient un doctorat et un diplôme de master en sciences informatiques de l'Institut des mines et de la technologie du Nouveau-Mexique.