Suivez nous sur

Pourquoi l'IA rend plus difficile que jamais de savoir ce qui doit nous inquiéter en matière de cybersécurité

Cybersécurité

Pourquoi l'IA rend plus difficile que jamais de savoir ce qui doit nous inquiéter en matière de cybersécurité

mm

L'intelligence artificielle a transformé la cybersécurité. Les centres d'opérations de sécurité traitent désormais davantage de données télémétriques, détectent plus rapidement les anomalies et automatisent les investigations répétitives. En théorie, cela devrait représenter un âge d'or pour la cyberdéfense.

En pratique, de nombreuses équipes se sentent plus débordées que jamais.

Les capacités de détection se sont considérablement améliorées, mais la clarté, elle, n'a pas suivi. Le paradoxe de la cybersécurité moderne est que cette meilleure visibilité engendre souvent une plus grande incertitude. Lorsque tout semble suspect, identifier ce qui compte vraiment devient le principal défi.

Plus de détection ne signifie pas une meilleure protection

Les outils de sécurité basés sur l'IA génèrent des alertes à une échelle sans précédent. Les moteurs d'analyse comportementale, de détection des terminaux, de surveillance du cloud, de détection des anomalies d'identité et de chasse aux menaces scrutent en permanence les activités anormales.

Le résultat est un déluge d'alertes.

Les recherches montrent que les équipes sont confrontées à environ 4 484 alertes par jourDe plus, faute de ressources suffisantes, une part importante de ces signalements est ignorée. Ce volume illustre le décalage entre la capacité de détection et la capacité de réponse. L'IA a certes accru la visibilité, mais elle a également amplifié le bruit.

Pour les responsables de la sécurité, cela engendre des difficultés opérationnelles. Les analystes consacrent un temps précieux à enquêter sur des événements qui, au final, ne présentent qu'un risque minime. Parallèlement, des menaces majeures peuvent se dissimuler parmi des signaux de moindre priorité.

Le problème de la priorisation

Le problème n'est pas le manque de données, mais le manque de contexte.

Les plateformes de sécurité excellent dans l'identification des anomalies. En revanche, elles sont moins performantes pour déterminer quelles anomalies sont les plus critiques dans un contexte métier spécifique. Une vulnérabilité détectée sur un serveur de développement n'est pas équivalente à la même vulnérabilité exploitée sur un système de paiement destiné aux clients.

C'est ici qu'un moderne plateforme de renseignement sur les menaces Elle devient stratégiquement importante. Plutôt que de simplement agréger les alertes, elle met en corrélation les flux de menaces externes avec le contexte des actifs internes, la disponibilité des exploits et les données d'exposition. Elle répond à une question plus pertinente : quelles alertes correspondent à des campagnes de menaces actives et à des actifs critiques ?

La priorisation permet de transformer le volume d'informations en informations ciblées. Sans elle, les équipes optent par défaut pour un triage réactif, souvent dicté par la première alerte reçue.

L'IA a fait monter les enchères des deux côtés.

Il est également important de reconnaître que l'IA n'est pas réservée aux défenseurs. Comme l'ont souligné des articles récents, L'IA a donné du pouvoir à l'autre camp dans ce champ de bataille cybernétique.Les acteurs malveillants exploitent désormais des modèles d'apprentissage automatique pour automatiser la reconnaissance, concevoir des campagnes d'hameçonnage très convaincantes et adapter dynamiquement le comportement des logiciels malveillants.

Les modèles de langage complexes permettent de générer à grande échelle des courriels d'hameçonnage localisés. Les outils d'analyse automatisés peuvent identifier les ressources cloud mal configurées en quelques minutes. Les campagnes de collecte d'identifiants sont continuellement optimisées en fonction des comportements observés.

Cette accélération raccourcit les délais. L'intervalle entre la prise de contrôle initiale et le déplacement latéral se réduit. Les équipes défensives doivent interpréter les signaux et réagir plus rapidement que jamais.

Le déséquilibre devient évident lorsque l'automatisation amplifie la vitesse des attaques tandis que les équipes de défense restent limitées par la capacité de réponse humaine.

L'illusion d'une couverture complète

De nombreuses organisations tentent de remédier à la saturation des alertes en multipliant les outils : moteurs de détection supplémentaires, tableaux de bord et flux de données. Elles partent du principe qu’une meilleure visibilité réduira les risques.

En réalité, la fragmentation des outils accroît souvent la complexité. Des consoles distinctes génèrent des alertes distinctes, sans contexte unifié. Les analystes doivent recouper manuellement les données entre les systèmes, ce qui allonge les cycles d'investigation.

La question stratégique passe de « Comment détecter davantage de choses ? » à « Comment interpréter ce que nous détectons ? »

Une approche mature repose sur la corrélation des différentes sources de télémétrie. L'activité réseau, les anomalies d'identité, les signaux des terminaux et les données de vulnérabilité doivent converger vers un modèle de risque unifié. Cette convergence permet aux équipes de sécurité de distinguer le bruit de fond habituel des attaques coordonnées.

Le contexte est le nouveau facteur de différenciation

Les programmes de sécurité les plus performants s'appuient de plus en plus sur le renseignement contextuel plutôt que sur des alertes isolées. Le contexte inclut la criticité des actifs, l'impact sur l'activité, la probabilité d'exploitation et les campagnes de menaces actives.

Par exemple, une vulnérabilité théoriquement grave mais non exploitée activement peut justifier une surveillance plutôt qu'une correction immédiate. À l'inverse, une faille de gravité modérée liée à une campagne en cours ciblant des organisations similaires exige une action rapide.

Les flux de renseignements sur les menaces offrent cette perspective externe. Combinés aux données d'exposition internes, ils permettent d'établir une feuille de route de remédiation priorisée plutôt qu'une liste d'alertes isolées.

C’est là que l’IA doit apporter son aide, et non la surcharger. Au lieu de générer davantage d’alertes, les modèles d’IA devraient mettre en évidence des corrélations que les analystes humains pourraient manquer sous la pression du temps.

De la détection à la gestion de l'exposition

En matière de cybersécurité, le débat s'oriente progressivement vers la gestion de l'exposition aux risques. Plutôt que de se concentrer uniquement sur l'identification des attaques une fois qu'elles ont commencé, les organisations cartographient et réduisent les failles de sécurité avant même qu'elles ne soient exploitées.

Les cadres de gestion continue de l'exposition évaluent les interactions entre les vulnérabilités, les erreurs de configuration et les autorisations d'identité. Ils simulent les scénarios d'attaque potentiels afin de déterminer les zones d'accumulation des risques.

L'intégration d'une plateforme de veille sur les menaces à ce modèle en améliore la précision. Elle permet de déterminer si une exposition est théorique ou fait l'objet d'une attaque active. Cette distinction influe directement sur les décisions de priorisation.

Réduire l'exposition de manière proactive est souvent plus efficace que d'enquêter sur un autre faux positif.

Le facteur humain

Derrière chaque file d'alertes se cachent des analystes qui prennent des décisions sous pression. La surcharge d'alertes n'est pas qu'un simple désagrément opérationnel ; c'est un enjeu de santé publique.

Lorsque les professionnels traitent des milliers d'alertes à faible valeur ajoutée, la fatigue cognitive augmente. La qualité des décisions diminue. Le risque d'épuisement professionnel s'accroît. La fidélisation des talents devient difficile sur un marché du travail déjà tendu.

On s'attendait à ce que l'IA allège cette charge. Dans certains contextes, c'est le cas. Dans d'autres, elle n'a fait qu'amplifier le signal sans en améliorer la clarté.

La prochaine étape de l'intégration de l'IA doit privilégier la qualité à la quantité. Les modèles doivent être optimisés pour minimiser les faux positifs et améliorer la précision de l'évaluation des risques.

À quoi ressemblera la maturité en 2026

En 2026, la maturité en cybersécurité ne se mesurera pas au nombre d'alertes qu'une entreprise peut générer, mais à sa capacité à transformer rapidement et précisément les renseignements en actions.

Les organisations qui intègrent le renseignement contextuel sur les menaces, l'analyse de l'exposition et la priorisation automatisée dans un système cohérent seront plus performantes que celles qui se contentent de la détection. L'objectif n'est pas de supprimer complètement les alertes, mais de s'assurer que chaque alerte représente un risque significatif.

Les équipes de sécurité ont besoin de décisions moins nombreuses, mais plus fiables. Elles ont besoin d'une visibilité qui clarifie plutôt qu'elle n'obscurcit.

L'IA demeure un élément central de cette transformation. Mise en œuvre de manière stratégique, elle réduit la surcharge cognitive et affine la priorisation. En revanche, sans intégration, elle amplifie le chaos.

La différence réside dans l'architecture, et non pas uniquement dans l'algorithme.

David Balaban est un chercheur en sécurité informatique avec plus de 17 ans d'expérience dans l'analyse des logiciels malveillants et l'évaluation des logiciels antivirus. David court MacSecurity.net et Confidentialité-PC.com des projets qui présentent des opinions d'experts sur des questions contemporaines de sécurité de l'information, y compris l'ingénierie sociale, les logiciels malveillants, les tests d'intrusion, les renseignements sur les menaces, la confidentialité en ligne et le piratage de chapeau blanc. David a une solide expérience dans le dépannage des logiciels malveillants, avec un accent récent sur les contre-mesures contre les ransomwares.