Connect with us

Leaders d’opinion

L’hype de l’IA éclipse les décisions humaines qui conduisent aux failles de sécurité

mm
A photorealistic, wide-angle shot of a middle-aged IT professional in a bright, modern office, staring intensely at a computer monitor with a look of stressed urgency as he hovers his finger over a mouse to click a system pop-up.

L’IA a remodelé la façon dont les organisations pensent aux menaces, avec une attention souvent focalisée sur les opérations à grande échelle, la reconnaissance automatisée et les impostures de plus en plus convaincantes. Ces développements méritent l’attention, mais ils ont également déformé la compréhension de l’industrie sur l’endroit où commence l’exposition la plus courante.

Même si les organisations se concentrent sur des menaces plus avancées et impulsées par l’IA, les attaquants parviennent toujours à pénétrer en manipulant l’instinct humain. Les attaques ClickFix, une forme sophistiquée d’ingénierie sociale, représentaient 47% des incidents d’accès initial observés l’an dernier. Cela montre à quel point souvent une faille commence par une personne prenant une décision rapide sous pression, et non par une faille technologique.

L’écart de réponse humaine

Les attaques ClickFix sont efficaces car elles imitent les signaux que les équipes techniques sont formées pour traiter. Elles ne dépendent pas de vulnérabilités logicielles ou de négligences de configuration. Au lieu de cela, elles exploitent une attente simple : lorsque quelque chose ne va pas, quelqu’un essaiera de le réparer immédiatement.

Cet instinct est intensifié dans les environnements techniques où la disponibilité, la réactivité et l’action rapide sont des attentes essentielles. Les administrateurs et le personnel de support sont conditionnés pour réagir rapidement aux avertissements, aux invites de système ou aux demandes d’accès. Les attaquants comprennent cette pression et conçoivent des campagnes qui ressemblent aux signaux exacts que les professionnels sont formés pour traiter.

L’IA a rendu ce calcul plus dangereux. Les outils génératifs permettent aux attaquants de créer des appâts avec une grammaire presque parfaite, une terminologie de système contextuellement précise et des interfaces usurpées qui imitent étroitement les logiciels d’entreprise réels. Là où un prompt maladroit donnait autrefois l’élan à une tentative d’ingénierie sociale, les attaques d’aujourd’hui peuvent être indiscernables d’une alerte IT légitime, élargissant l’écart entre ce que les utilisateurs sont formés pour détecter et ce qu’ils rencontrent réellement sur le terrain.

Le moment où les choses tournent mal

Un défi clé avec les incidents ClickFix est que le moment crucial semble normal. Un utilisateur approuve un prompt, réinitialise l’accès ou autorise un changement. L’action elle-même se fond dans l’activité quotidienne, ce qui crée un défi pour les outils de sécurité traditionnels. Ces systèmes détectent les anomalies techniques mais ne peuvent pas facilement interpréter le contexte derrière une décision précipitée.

Une séquence typique pourrait ressembler à ceci : un utilisateur rencontre un avertissement de navigateur indiquant que sa session a expiré ou qu’un plug-in nécessaire doit être mis à jour. Il clique sur un prompt qui exécute une commande PowerShell en arrière-plan — qu’il ne voit jamais — tandis que l’interface visible lui indique simplement que le problème est résolu. L’interaction entière prend moins de 30 secondes. Rien dans le journal du système ne le signale comme inhabituel car, techniquement, rien de inhabituel ne s’est produit. Un utilisateur légitime a exécuté une commande sur une machine légitime.

Cela conduit à plusieurs conséquences. Aujourd’hui, 74% des failles impliquaient l’élément humain, y compris les attaques d’ingénierie sociale, les erreurs et les abus. Les risques de comportement humain apparaissent rarement à l’intérieur des tableaux de bord. Les contrôles ne sont pas le problème. La couche manquante est la visibilité dans les décisions qui sont les plus susceptibles d’être précipitées et comment ces décisions créent des ouvertures pour les attaquants.

Repenser l’erreur humaine

Le comportement humain ne devrait pas être traité comme une préoccupation de formation isolée ; il devrait être considéré comme un élément essentiel de l’architecture de sécurité.

Au lieu de le traiter comme un résultat imprévisible, les organisations devraient le traiter comme un facteur de risque mesurable. Les dirigeants de la sécurité peuvent y parvenir en intégrant des informations centrées sur l’humain dans leur posture défensive. Les systèmes devraient être conçus avec des attentes réalistes de la façon dont les gens se comportent, et non avec l’hypothèse qu’ils se comporteront toujours dans des conditions idéales.

La mesure ici est concrète, et non abstraite. Les organisations peuvent suivre la vitesse de décision, à quelle vitesse les utilisateurs approuvent les invites à impact élevé pendant les heures de pointe opérationnelles, et utiliser la surveillance des modèles d’approbation pour mettre en surface des anomalies comme les autorisations en dehors des heures ouvrables ou les contournements répétés des avertissements standard. La création d’une référence de comportement, appliquée au niveau individuel ou de rôle, donne aux équipes de sécurité un point de référence pour ce qui ressemble à “normal” de sorte que les déviations enregistrent un signal plutôt que du bruit.

Remédier à la cause profonde

L’amélioration des défenses contre les attaques de type ClickFix commence par la compréhension des conditions qui conduisent à des décisions précipitées. Les dirigeants peuvent étudier des modèles tels que des approbations rapides, des quasi-accidents récurrents ou des réponses incohérentes aux invites de système. Ces observations révèlent où l’instinct peut primer sur la prudence.

Les flux de travail devraient également être évalués pour les points de pression qui invitent aux erreurs. Les actions à impact élevé bénéficient de petites étapes de vérification qui permettent aux utilisateurs de faire une pause et d’évaluer ce qu’ils approuvent. Dans le même temps, les tâches routinières devraient être rationalisées pour réduire la fatigue qui encourage les gens à cliquer sur les invites sans examen attentif.

Les organisations peuvent acquérir une meilleure compréhension en utilisant des simulations qui reflètent une pression réaliste. Les tests de phishing traditionnels sont utiles pour la sensibilisation mais n’évaluent pas comment quelqu’un réagit lorsqu’il gère plusieurs tâches ou une préoccupation opérationnelle urgente. Les scénarios construits autour de la pression temporelle ou de l’interruption du système révèlent des modèles de comportement qui sont autrement difficiles à détecter.

Des simulations efficaces introduisent des variables que les tests traditionnels ignorent, la charge de tâches simultanées, les fenêtres de fatigue de fin de journée et les interruptions de flux de travail qui obligent un commutateur de contexte juste avant qu’un prompt à enjeu élevé n’apparaisse. Un utilisateur qui repère un e-mail de phishing en isolement peut approuver un prompt malveillant sans hésitation lorsqu’il gère un incident actif à 16h45. La construction de tests qui reproduisent ces conditions génère des données de comportement que les organisations peuvent réellement utiliser, plutôt que des métriques de sensibilisation basées sur le passage/échec qui ne se traduisent pas par une amélioration de la réponse sous pression.

Cela aide également à planifier les incidents qui commencent par des actions légitimes. De nombreuses équipes se concentrent sur la détection de comportements non autorisés. Dans la pratique, le premier signe significatif d’une attaque peut être un prompt approuvé qui n’aurait jamais dû être approuvé. Intégrer cette attente dans la planification de la réponse aux incidents facilite la détection des indicateurs précoces qui seraient autrement négligés.

Renforcer le point de défaillance

Les menaces impulsées par l’IA continueront d’évoluer, mais de nombreuses failles de sécurité trouvent toujours leur origine dans une décision humaine prise dans l’instant. Remédier à cette réalité ne nécessite pas de ralentir les opérations ou d’abandonner l’automatisation. Cela nécessite de concevoir des systèmes et des flux de travail qui reflètent la façon dont les gens travaillent naturellement et de construire des gardes-fous autour des points où l’instinct tend à primer sur la prudence.

Les organisations qui intègrent la prise de décision humaine dans leur compréhension de la surface d’attaque acquièrent une vue plus précise du risque opérationnel. Cela conduit à des défenses plus solides soutenues à la fois par des contrôles techniques et une compréhension plus réaliste de la façon dont les utilisateurs interagissent avec les systèmes au cours du travail quotidien.

Ross Filipek a plus de 20 ans d'expérience dans l'industrie des services de sécurité informatique gérés en tant qu'ingénieur et consultant. En plus de diriger les efforts de Corsica pour gérer les risques cybernétiques, il fournit des services de consultation vCISO à de nombreux clients de Corsica. Ross a obtenu une reconnaissance en tant que Cisco Certified Internetwork Expert (CCIE #18994 ; voie Sécurité) et un ISC2 Certified Information Systems Security Professional (CISSP). Il a également obtenu un diplôme de MBA de l'Université de Notre Dame.