Cybersécurité
Lutter contre l’IA avec l’IA dans le paysage des menaces modernes
Ce n’est pas exactement une nouvelle pour dire que l’IA a dramatiquement changé l’industrie de la cybersécurité. Les attaquants et les défenseurs utilisent tous deux l’intelligence artificielle pour améliorer leurs capacités, chacun essayant de rester une étape ahead de l’autre. Ce jeu de chat et de souris n’est rien de nouveau – les attaquants essaient de déjouer les équipes de sécurité depuis des décennies, après tout – mais l’émergence de l’intelligence artificielle a introduit un élément frais (et souvent imprévisible) dans la dynamique. Les attaquants du monde entier se frottent les mains de joie à la perspective d’utiliser cette nouvelle technologie pour développer des méthodes d’attaque innovantes et inédites.
Au moins, c’est la perception. Mais la réalité est un peu différente. Alors que les attaquants utilisent de plus en plus l’IA, ils l’utilisent principalement pour augmenter l’échelle et la complexité de leurs attaques, en affinant leur approche des tactiques existantes plutôt que de briser de nouvelles terres. La pensée ici est claire : pourquoi passer du temps et des efforts à développer les méthodes d’attaque de demain lorsque les défenseurs ont déjà du mal à arrêter celles d’aujourd’hui ? Heureusement, les équipes de sécurité modernes utilisent elles-mêmes des capacités d’IA – dont beaucoup aident à détecter les logiciels malveillants, les tentatives de phishing et d’autres tactiques d’attaque courantes avec plus de rapidité et de précision. Alors que la « course aux armements de l’IA » entre les attaquants et les défenseurs se poursuit, il sera de plus en plus important pour les équipes de sécurité de comprendre comment les adversaires utilisent réellement la technologie – et de s’assurer que leurs propres efforts sont axés sur le bon endroit.
Comment les attaquants utilisent l’IA
L’idée d’un IA semi-autonome déployé pour hacker systématiquement les défenses d’une organisation est effrayante, mais (pour l’instant) elle reste fermement dans le domaine des romans de William Gibson et d’autres œuvres de science-fiction. Il est vrai que l’IA a progressé à un rythme incroyable au cours des dernières années, mais nous sommes encore loin de cette intelligence artificielle générale (AGI) capable de parfaitement imiter les modèles de pensée et de comportement humains. Ce n’est pas dire que l’IA d’aujourd’hui n’est pas impressionnante – elle l’est certainement. Mais les outils d’IA générative et les grandes modèles de langage (LLM) sont les plus efficaces pour synthétiser des informations à partir de matériel existant et générer de petites modifications itératives. Il ne peut pas créer quelque chose de complètement nouveau par lui-même – mais n’ayez aucune erreur, la capacité de synthétiser et d’itérer est incroyablement utile.
Dans la pratique, cela signifie que les adversaires peuvent plutôt améliorer leurs méthodes d’attaque actuelles. En utilisant l’IA, un attaquant pourrait envoyer des millions de courriels de phishing, au lieu de milliers. Ils peuvent également utiliser un LLM pour créer un message plus convaincant, trompant plus de destinataires pour cliquer sur un lien malveillant ou télécharger un fichier contenant un logiciel malveillant. Les tactiques comme le phishing sont essentiellement un jeu de nombres : la grande majorité des gens ne tomberont pas dans un courriel de phishing, mais si des millions de personnes le reçoivent, même un taux de réussite de 1 % peut entraîner des milliers de nouvelles victimes. Si les LLM peuvent augmenter ce taux de réussite de 1 % à 2 % ou plus, les escrocs peuvent effectivement doubler l’efficacité de leurs attaques avec peu ou pas d’efforts. La même chose s’applique aux logiciels malveillants : si de petites modifications du code des logiciels malveillants peuvent effectivement les camoufler de la détection des outils, les attaquants peuvent obtenir beaucoup plus de kilométrage à partir d’un programme de logiciel malveillant individuel avant de devoir passer à quelque chose de nouveau.
L’autre élément en jeu ici est la vitesse. Puisque les attaques basées sur l’IA ne sont pas soumises aux limitations humaines, elles peuvent souvent mener une séquence d’attaque entière à un rythme beaucoup plus rapide qu’un opérateur humain. Cela signifie qu’un attaquant pourrait potentiellement pénétrer dans un réseau et atteindre les « joyaux de la couronne » de la victime – ses données les plus sensibles ou les plus précieuses – avant même que l’équipe de sécurité ne reçoive une alerte, et encore moins y réponde. Si les attaquants peuvent aller plus vite, ils n’ont pas besoin d’être aussi prudents – ce qui signifie qu’ils peuvent s’échapper avec des activités plus bruyantes et plus perturbatrices sans être arrêtés. Ils ne font pas nécessairement quelque chose de nouveau ici, mais en poussant leurs attaques plus rapidement, ils peuvent dépasser les défenses du réseau d’une manière potentiellement révolutionnaire.
C’est la clé pour comprendre comment les attaquants utilisent l’IA. Les arnaques d’ingénierie sociale et les programmes de logiciels malveillants sont déjà des vecteurs d’attaque réussis – mais maintenant les adversaires peuvent les rendre encore plus efficaces, les déployer plus rapidement et opérer à une échelle encore plus grande. Plutôt que de lutter contre des dizaines de tentatives par jour, les organisations pourraient lutter contre des centaines, des milliers ou même des dizaines de milliers d’attaques rapides. Et s’ils n’ont pas de solutions ou de processus en place pour détecter rapidement ces attaques, identifier celles qui représentent de véritables menaces tangibles et les remédier efficacement, ils s’exposent dangereusement aux attaquants. Au lieu de se demander comment les attaquants pourraient utiliser l’IA à l’avenir, les organisations devraient utiliser des solutions d’IA pour leur propre compte dans le but de gérer les méthodes d’attaque existantes à une échelle plus grande.
Utiliser l’IA à l’avantage des équipes de sécurité
Les experts en sécurité à tous les niveaux, tant dans les entreprises que dans les gouvernements, cherchent des moyens d’utiliser l’IA à des fins de défense. En août, l’Agence de recherche avancée de défense des États-Unis (DARPA) a annoncé les finalistes de son récent défi de cybersécurité de l’IA (AIxCC), qui attribue des prix aux équipes de recherche en sécurité travaillant à la formation de LLM pour identifier et corriger les vulnérabilités basées sur le code. Le défi est soutenu par de grands fournisseurs d’IA, notamment Google, Microsoft et OpenAI, qui fournissent un soutien technologique et financier à ces efforts pour renforcer la sécurité basée sur l’IA. Bien sûr, DARPA n’est qu’un exemple – vous pouvez à peine secouer un bâton dans la Silicon Valley sans heurter une douzaine de fondateurs de startups impatients de vous parler de leurs solutions de sécurité avancées basées sur l’IA. Disons simplement que trouver de nouvelles façons d’utiliser l’IA à des fins de défense est une priorité élevée pour les organisations de toutes tailles et de tous types.
Mais comme les attaquants, les équipes de sécurité trouvent souvent le plus de succès lorsqu’elles utilisent l’IA pour amplifier leurs capacités existantes. Avec des attaques qui se produisent à une échelle de plus en plus grande, les équipes de sécurité sont souvent tendues – tant en termes de temps que de ressources – ce qui rend difficile l’identification, l’investigation et la remédiation de chaque alerte de sécurité qui apparaît. Il n’y a simplement pas le temps. Les solutions d’IA jouent un rôle important pour alléger ce défi en fournissant des capacités de détection et de réponse automatisées. Si l’IA est bonne à quelque chose, c’est à identifier les modèles – et cela signifie que les outils d’IA sont très bons pour reconnaître un comportement anormal, en particulier si ce comportement correspond à des modèles d’attaque connus. Puisque l’IA peut examiner de grandes quantités de données beaucoup plus rapidement que les humains, cela permet aux équipes de sécurité d’augmenter leurs opérations de manière significative. Dans de nombreux cas, ces solutions peuvent même automatiser les processus de base de remédiation, contrecarrant les attaques de bas niveau sans nécessiter d’intervention humaine. Ils peuvent également être utilisés pour automatiser le processus de validation de la sécurité, en testant continuellement et en poussant les défenses du réseau pour s’assurer qu’elles fonctionnent comme prévu.
Il est également important de noter que l’IA ne permet pas seulement aux équipes de sécurité d’identifier les activités d’attaque potentielles plus rapidement – elle améliore également considérablement leur précision. Au lieu de poursuivre de fausses alertes, les équipes de sécurité peuvent être sûres que lorsque une solution d’IA les alerte sur une attaque potentielle, elle est digne de leur attention immédiate. C’est un élément de l’IA qui n’est pas suffisamment discuté – alors que beaucoup de discussions portent sur l’IA « remplaçant » les humains et prenant leur emploi, la réalité est que les solutions d’IA permettent aux humains de faire leur travail mieux et plus efficacement, tout en allégeant la fatigue qui accompagne l’exécution de tâches fastidieuses et répétitives. Loin d’avoir un impact négatif sur les opérateurs humains, les solutions d’IA gèrent beaucoup du « travail fastidieux » associé aux postes de sécurité, permettant aux humains de se concentrer sur des tâches plus intéressantes et plus importantes. À une époque où la fatigue est à son plus haut niveau et où de nombreuses entreprises ont du mal à attirer de nouveaux talents en sécurité, améliorer la qualité de vie et la satisfaction professionnelle peut avoir un impact positif énorme.
C’est là que réside le véritable avantage pour les équipes de sécurité. Non seulement les solutions d’IA peuvent les aider à augmenter leurs opérations pour combattre efficacement les attaquants qui utilisent des outils d’IA – mais elles peuvent également garder les professionnels de la sécurité plus heureux et plus satisfaits dans leurs rôles. C’est une rare solution gagnant-gagnant pour tout le monde, et elle devrait aider les entreprises d’aujourd’hui à reconnaître que le moment d’investir dans des solutions de sécurité basées sur l’IA est maintenant.
La course aux armements de l’IA est à peine commencée
La course pour adopter des solutions d’IA est en cours, les attaquants et les défenseurs trouvant différents moyens d’utiliser la technologie à leur avantage. Alors que les attaquants utilisent l’IA pour augmenter la vitesse, l’échelle et la complexité de leurs attaques, les équipes de sécurité devront lutter contre le feu avec le feu, en utilisant des outils d’IA pour améliorer la vitesse et la précision de leurs capacités de détection et de remédiation. Heureusement, les solutions d’IA fournissent des informations critiques aux équipes de sécurité, leur permettant de mieux tester et d’évaluer l’efficacité de leurs propres solutions, tout en libérant du temps et des ressources pour des tâches plus critiques. N’ayez aucune erreur, la course aux armements de l’IA est à peine commencée – mais le fait que les professionnels de la sécurité utilisent déjà l’IA pour rester une étape ahead des attaquants est un très bon signe.












