Connect with us

Anthropic Expose le Premier Cyberattaque à Grande Échelle Propulsé par l’Automatisation de l’IA

Cybersécurité

Anthropic Expose le Premier Cyberattaque à Grande Échelle Propulsé par l’Automatisation de l’IA

mm

Anthropic a révélé qu’un groupe de hackers, qu’ils soupçonnent d’être un groupe parrainé par l’État chinois, a mené le premier cyberattaque à grande échelle documenté exécuté avec une intervention humaine minimale, en utilisant l’outil Claude Code de l’entreprise pour automatiser 80 à 90 pour cent de la campagne.

Les attaquants ont ciblé environ 30 organisations à travers les principales sociétés de technologie, les institutions financières, les fabricants de produits chimiques et les agences gouvernementales. Alors que la plupart des attaques ont été bloquées, la campagne a réussi dans un petit nombre de cas. Claude Code a effectué la reconnaissance, les tests de vulnérabilité, la récolte d’informations d’identification et l’exfiltration de données de manière largement autonome, les opérateurs humains n’étant nécessaires qu’aux points de décision critiques.

<strong Vous pouvez lire le rapport complet d'Anthropic ici.

Méthodes d’attaque et manipulation de l’IA

Les hackers ont contourné les garde-fous de sécurité de Claude grâce à un ingénierie sociale sophistiquée. Ils ont trompé le système d’IA en prétendant être des employés d’une société de cybersécurité légitime effectuant des tests de défense. Les attaquants ont également décomposé leurs opérations en petites tâches apparemment innocentes qui ont fourni à Claude un contexte incomplet sur l’objectif global malveillant.

Claude Code a inspecté les systèmes des organisations ciblées pour identifier les bases de données à haute valeur, a effectué cette reconnaissance plus rapidement que les hackers humains ne pouvaient le faire, et a recherché et écrit du code d’exploitation personnalisé pour tester les vulnérabilités de sécurité. Le système a récolté des noms d’utilisateur et des mots de passe pour un accès réseau supplémentaire, puis a extrait et catégorisé les données privées en fonction de leur valeur en termes d’intelligence. Les attaquants pouvaient exécuter la campagne avec essentiellement le clic d’un bouton, après quoi l’IA a fonctionné largement de manière autonome à des vitesses impossibles pour les équipes humaines – souvent en envoyant des milliers de requêtes par seconde.

Image: Anthropic

Détection et réponse de l’entreprise

Anthropic a détecté l’attaque à la mi-septembre 2025 et a lancé une enquête immédiatement. Dans les 10 jours, l’entreprise a fermé l’accès du groupe à Claude, a contacté les organisations touchées et a informé les autorités de l’application des lois. L’entreprise a depuis élargi ses capacités de détection et développe des méthodes supplémentaires pour enquêter et détecter les attaques à grande échelle et réparties.

Cet incident fait suite à des cas de mauvaise utilisation antérieurs documentés par Anthropic en 2025. En août, le rapport d’intelligence sur les menaces de l’entreprise a détaillé une opération d’extorsion de données suivie sous le nom de GTG-2002, qui a utilisé Claude Code pour commettre un vol à grande échelle ciblant au moins 17 organisations dans les soins de santé, les services d’urgence, le gouvernement et les institutions religieuses. Ce criminel a exigé des rançons dépassant 500 000 $ en menaçant d’exposer les données volées plutôt que d’utiliser le cryptage classique du rançongiciel.

L’infrastructure de détection d’Anthropic repose sur des techniques en couches multiples, notamment l’analyse du comportement pour surveiller les modèles d’utilisation sur des millions de requêtes API, la détection d’anomalies pour identifier les séquences d’opérations incohérentes avec une utilisation légitime, et la correspondance de modèles pour reconnaître les techniques de manipulation connues et nouvelles. L’entreprise emploie des classificateurs spécialisés qui analysent les entrées utilisateur pour les requêtes potentiellement nuisibles et évaluent les réponses de Claude avant ou après leur livraison.

Implications pour l’industrie

La campagne a impliqué un niveau sans précédent d’autonomie de l’IA dans les cyberattaches et marque ce que les experts en sécurité considèrent comme un tournant dans l’espionnage informatique. La capacité des systèmes d’IA à mener des attaques sophistiquées à la vitesse de la machine avec une surveillance humaine minimale soulève de nouveaux défis pour les défenseurs de la cybersécurité.

La divulgation d’Anthropic intervient alors que les entreprises d’IA font face à une pression croissante pour empêcher une utilisation malveillante de leurs modèles. L’entreprise maintient un programme complet d’intelligence sur les menaces et de sauvegardes pour détecter et contrer les mauvaises utilisations de Claude, avec des incidents de sécurité documentés tout au long de 2025. En mars, l’entreprise a identifié une opération d’influence en tant que service qui a utilisé Claude pour automatiser l’engagement avec des dizaines de milliers de comptes de réseaux sociaux dans plusieurs pays et langues.

L’incident souligne la sophistication croissante des outils alimentés par l’IA et les défis pour empêcher leur mauvaise utilisation tout en maintenant leur utilité pour les utilisateurs légitimes. Anthropic a interdit les comptes associés et continue d’améliorer ses capacités de détection et d’atténuation pour répondre au paysage de menaces en évolution.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.