Leaders d’opinion
L’IA fantôme expose une faille plus importante dans la gouvernance de l’IA

Pendant des années, le risque interne a été présenté autour de scénarios catastrophiques : employés malveillants, données volées et dommages découverts après coup. Ce cadrage était toujours incomplet. À l’ère de l’IA, il devient activement peu utile.
La plupart des risques internes ne commencent pas par la malice. Ils commencent par le travail de routine : résumer un document, répondre à un client, accélérer un flux de travail ou expédier du code plus rapidement. De plus en plus souvent, ces décisions quotidiennes impliquent maintenant l’IA.
C’est pourquoi l’IA fantôme est importante. Définie de manière large, l’IA fantôme est l’utilisation d’outils, d’agents ou d’automatisations d’IA en dehors de la surveillance d’entreprise approuvée. Dans la plupart des cas, les employés n’essaient pas d’éviter les politiques. Ils essaient de faire leur travail. Le véritable problème est que la gouvernance n’a pas suivi le rythme de l’évolution du travail.
Cet écart est maintenant mesurable. De nouvelles recherches de Ponemon ont révélé que 92 % des organisations estiment que l’IA générative a changé la façon dont les employés accèdent et partagent des informations, mais seulement 18 % ont pleinement intégré la gouvernance de l’IA dans les programmes de gestion des risques internes. L’IA est déjà intégrée dans le travail quotidien. La surveillance est toujours en train de rattraper son retard.
L’IA fantôme n’est pas un problème unique
L’une des plus grandes erreurs que les organisations font est de traiter l’IA fantôme comme un risque uniforme. Ce n’est pas le cas.
Il y a une différence significative entre utiliser l’IA pour résumer la recherche publique, coller des contrats internes dans un assistant non approuvé et permettre à un agent d’IA de récupérer des données ou d’effectuer des actions à travers les systèmes d’entreprise. Le risque change en fonction de la sensibilité des données, du niveau d’autonomie impliqué et de l’autorité accordée au système.
C’est pourquoi les interdictions générales ne fonctionnent rarement. Elles ont tendance à pousser le comportement plus loin de la vue sans aborder les conditions qui ont rendu le comportement attrayant en premier lieu. Mais les politiques trop permissives ne sont pas meilleures. Si tout est autorisé, la gouvernance devient peu plus qu’un exercice sur papier.
Une approche plus efficace consiste à faire la distinction entre :
- Une aide à faible risque, où l’IA soutient le travail de routine avec une exposition limitée
- Une manipulation de données à haut risque, où des informations sensibles sont saisies, transformées ou partagées, et
- Une autorité déléguée, où les systèmes d’IA sont autorisés à récupérer, à orchestrer ou à agir à travers des environnements connectés.
Cette dernière catégorie marque le véritable changement.
À mesure que l’IA va au-delà de la génération de contenu pour atteindre la récupération, l’orchestration et l’exécution, la question de sécurité change. Le problème n’est plus simplement de savoir si quelqu’un a utilisé un outil non approuvé. C’est quelle autorité a été conférée à un système, quelles données il peut accéder et ce qu’il est autorisé à faire avec cet accès.
Les agents d’IA deviennent plus fiables, plus connectés et plus capables d’agir de manière indépendante. C’est exactement pourquoi les modèles traditionnels de risque interne commencent à montrer leurs limites.
Pourquoi l’IA fantôme avec autorité déléguée change le modèle de risque
La plupart des modèles de risque interne ont été conçus pour évaluer le comportement humain : négligence, mauvaise utilisation, compromis ou intention malveillante. Ces catégories ont toujours de l’importance. Elles ne capturent plus l’image complète.
Cela devient particulièrement clair dans l’IA fantôme, où l’outil ou l’agent n’est pas nécessairement sanctionné, géré centralement ou même visible pour l’organisation. Dans ces cas, le risque n’est pas seulement que l’employé utilise l’IA. C’est qu’il peut utiliser un système contrôlé par l’utilisateur avec un accès, une autonomie ou des intégrations que l’entreprise ne comprend pas pleinement.
Aujourd’hui, une personne peut avoir un accès légitime et émettre ce qui semble être une instruction de routine. Mais dans un scénario d’IA fantôme, cette instruction peut être transmise à un assistant non sanctionné, un plug-in, un agent ou un flux de travail qui peut la poursuivre plus loin, plus vite ou plus largement que l’utilisateur ne l’avait intentionné. C’est la véritable conséquence de l’autorité déléguée.
L’humain fournit l’intention, l’accès ou la sollicitation. Le système d’IA exécute avec rapidité, ampleur et persistance. Ensemble, ils peuvent amplifier les erreurs de manière que les contrôles legacy n’aient jamais été conçus pour les contenir.
La préoccupation n’est pas que les systèmes d’IA soient malveillants. C’est qu’ils peuvent opérationnaliser des instructions erronées, un jugement faible ou des flux de travail non sécurisés à une vitesse de machine. Et lorsque ce système se situe en dehors de la surveillance approuvée, l’organisation peut avoir peu de visibilité sur les données qu’il a touchées, où ces données sont allées, quelles actions ont été prises ou comment intervenir lorsque quelque chose se passe mal.
C’est ce qui rend l’autorité déléguée à l’intérieur de l’IA fantôme matériellement différente de l’utilisation ordinaire d’outils non approuvés. Le problème n’est plus limité à un employé qui colle des données sensibles dans la mauvaise interface. Il s’étend à des systèmes non approuvés qui récupèrent des informations, enchaînent des tâches, se connectent à des applications d’entreprise et agissent au nom de l’utilisateur sans les garde-fous qu’un environnement approuvé aurait normalement mis en place.
C’est pourquoi les équipes de sécurité ont besoin d’un modèle plus précis pour le risque interne : un qui tient compte non seulement du comportement humain, mais de l’interaction entre l’intention humaine et l’exécution de la machine.
Le coût de l’IA fantôme est déjà visible
Ce n’est pas un problème futur. Les coûts sont déjà visibles dans les tendances actuelles de risque interne.
Les recherches de Ponemon de 2026 ont révélé que les coûts de risque interne liés à la négligence ont augmenté de 17 % d’une année sur l’autre pour atteindre 10,3 millions de dollars, contribuant à un coût total annuel de risque interne de 19,5 millions de dollars. Le rapport identifie l’IA fantôme comme un facteur contributif majeur, transformant un comportement de productivité ordinaire en une source persistante d’exposition de données.
Des matériaux sensibles sont saisis dans des outils d’IA publics ou non approuvés. Des outils de prise de notes d’IA capturent des réunions confidentielles. Des outils agents fonctionnent avec une visibilité limitée dans des environnements qui n’ont jamais été conçus pour ce niveau d’interaction autonome.
Ce sont généralement des actes non malveillants. Ce sont des comportements de travail normaux se déroulant dans des systèmes avec des garde-fous faibles et une surveillance incomplète.
C’est ce qui rend l’IA fantôme si importante. Elle n’introduit pas simplement une nouvelle catégorie de risque. Elle augmente l’ampleur, la rapidité et le coût de la négligence en rendant les petites erreurs plus faciles à répéter et plus difficiles à détecter.
Pourquoi interdire les outils d’IA n’est pas la solution
Les outils d’IA sont maintenant trop utiles, trop accessibles et trop intégrés dans le travail quotidien pour être gérés uniquement par l’interdiction. Lorsque les organisations s’appuient uniquement sur les interdictions, elles poussent souvent l’utilisation dans des canaux moins visibles.
Une meilleure réponse commence par la visibilité. Les équipes de sécurité doivent comprendre quels outils d’IA sont utilisés, quelles données y sont transmises, quels résultats sont générés et quels systèmes sont autorisés à agir au nom d’un utilisateur.
De même, la gouvernance doit refléter la façon dont le travail se déroule réellement — et non pas la façon dont la politique suppose qu’il se déroule.
Cela signifie intégrer la gouvernance de l’IA dans la gestion des risques internes, plutôt que de la traiter comme une initiative de conformité distincte. Si les employés et les systèmes d’IA accèdent, transforment et déplacent tous des informations, ils appartiennent au même modèle de visibilité, de responsabilité et de contrôle.
Les organisations qui réussissent cela ne seront pas celles qui interdisent le plus d’outils. Ce seront celles qui peuvent clairement distinguer où l’expérimentation responsable se termine et où l’exposition matérielle commence.
L’IA fantôme n’est pas une nuisance de gouvernance passagère. C’est un avertissement précoce que le travail a changé plus vite que la surveillance. Le défi maintenant n’est pas de ralentir l’entreprise. C’est d’appliquer la même discipline qui a amélioré la gestion des risques internes à une nouvelle réalité opérationnelle — une dans laquelle le jugement humain et l’exécution de la machine travaillent de plus en plus côte à côte.












