Connect with us

Votre agent n’est plus qu’un chatbot – Pourquoi le traitez-vous encore comme tel ?

Leaders d’opinion

Votre agent n’est plus qu’un chatbot – Pourquoi le traitez-vous encore comme tel ?

mm

Dans les premiers jours de l’IA générative, le pire scénario pour un chatbot malveillant était souvent peu plus qu’une honte publique. Un chatbot pouvait halluciner des faits, cracher du texte biaisé ou même vous insulter. C’était déjà suffisamment grave. Mais maintenant, nous avons remis les clés.

Bienvenue dans l’ère de l’agent.

De chatbot à agent : Le déplacement de l’autonomie

Les chatbots étaient réactifs. Ils restaient dans leurs limites. Posez une question, obtenez une réponse. Mais les agents IA – en particulier ceux construits avec l’utilisation d’outils, l’exécution de code et la mémoire persistante – peuvent effectuer des tâches mult étapes, invoquer des API, exécuter des commandes et écrire et déployer du code de manière autonome.

En d’autres termes, ils ne répondent plus simplement à des invites – ils prennent des décisions. Et comme tout professionnel de la sécurité vous le dira, une fois qu’un système commence à agir dans le monde, vous devez prendre au sérieux la sécurité et le contrôle.

Ce que nous avons averti en 2023

À l’OWASP, nous avons commencé à avertir de ce déplacement il y a plus de deux ans. Dans la première version de l’OWASP Top 10 pour les applications LLM, nous avons créé un terme : Excessive Agency.

L’idée était simple : lorsque vous donnez à un modèle trop d’autonomie – trop d’outils, trop d’autorité, trop peu de surveillance – il commence à agir plus comme un agent libre qu’un assistant borné. Peut-être qu’il planifie vos réunions. Peut-être qu’il supprime un fichier. Peut-être qu’il met en place une infrastructure cloud excessive et coûteuse.

Si vous n’êtes pas prudent, il commence à se comporter comme un adjoint confus… ou pire, un agent dormant qui attend d’être exploité dans un incident de cybersécurité. Dans des exemples réels récents, des agents de produits logiciels importants comme Microsoft Copilot, Salesforce’s Slack product ont tous deux été montrés vulnérables à l’utilisation de leurs privilèges élevés pour exfiltrer des données sensibles.

Et maintenant, cet hypothétique ressemble moins à de la science-fiction et plus à votre feuille de route du troisième trimestre.

Rencontrez MCP : La couche de contrôle d’agent (ou est-ce ?)

Avancez jusqu’en 2025, et nous voyons une vague de nouvelles normes et de protocoles conçus pour gérer cette explosion de fonctionnalité d’agent. Le plus important de ces protocoles est le Model Context Protocol (MCP) d’Anthropic – un mécanisme pour maintenir une mémoire partagée, des structures de tâches et un accès aux outils à travers des sessions d’agent à long terme.

Pensez au MCP comme à la colle qui maintient le contexte d’un agent ensemble à travers les outils et le temps. C’est une façon de dire à votre assistant de codage : « Voici ce que vous avez fait jusqu’à présent. Voici ce que vous êtes autorisé à faire. Voici ce que vous devriez vous rappeler. »

C’est un pas nécessaire. Mais cela soulève de nouvelles questions.

MCP est un activateur de capacité. Où sont les garde-fous ?

Jusqu’à présent, l’accent a été mis sur l’expansion de ce que les agents peuvent faire – et non sur les retenir.

Alors que le protocole aide à coordonner l’utilisation des outils et à préserver la mémoire à travers les tâches d’agent, il n’aborde pas encore des préoccupations critiques comme :

  • Résistance à l’injection d’invite : Que se passe-t-il si un attaquant manipule la mémoire partagée ?
  • Étendue de la commande : L’agent peut-il être trompé pour dépasser ses autorisations ?
  • Abus de jeton : Un blob de mémoire fuité pourrait-il exposer des informations d’identification d’API ou des données utilisateur ?

Ce ne sont pas des problèmes théoriques. Un examen récent des implications de sécurité a révélé que les architectures de type MCP sont vulnérables à l’injection d’invite, à l’abus de commande et même à l’empoisonnement de la mémoire, en particulier lorsque la mémoire partagée n’est pas correctement étendue ou chiffrée.

C’est le problème classique « pouvoir sans surveillance ». Nous avons construit l’exosquelette, mais nous n’avons pas encore trouvé où se trouve l’interrupteur.

Pourquoi les DSI devraient prêter attention – maintenant

Nous ne parlons pas de technologie future. Nous faisons référence à des outils que vos développeurs utilisent déjà et c’est juste le début d’un déploiement massif que nous allons voir dans l’entreprise.

Des agents de codage comme Claude Code et Cursor gagnent une véritable traction dans les flux de travail d’entreprise. Les recherches internes de GitHub ont montré que Copilot pouvait accélérer les tâches de 55 %. Plus récemment, Anthropic a rapporté que 79 % de l’utilisation de Claude Code était axée sur l’exécution automatique de tâches, et non seulement sur des suggestions de code.

C’est une véritable productivité. Mais c’est aussi une véritable automatisation. Ce ne sont plus des copilotes. Ils volent de plus en plus seuls. Et le cockpit ? Il est vide.

Le PDG de Microsoft, Satya Nadella, a récemment déclaré que l’IA écrit jusqu’à 30 % du code de Microsoft. Le PDG d’Anthropic, Dario Amodei, est allé encore plus loin, prédissant que l’IA générera 90 % du nouveau code dans les six mois.

Et ce n’est pas seulement le développement de logiciels. Le Model Context Protocol (MCP) est maintenant intégré dans des outils qui s’étendent au-delà du codage, englobant la gestion des e-mails, la préparation des réunions, la planification des ventes, la synthèse des documents et d’autres tâches de productivité à haute valeur pour les utilisateurs généraux. Même si de nombreux cas d’utilisation sont encore à leurs débuts, ils mûrissent rapidement. Cela change les enjeux. Il ne s’agit plus seulement d’une discussion pour votre CTO ou votre VP de l’ingénierie. Cela exige l’attention des dirigeants d’unités commerciales, des DSI, des DSI et des directeurs généraux de l’IA. À mesure que ces agents commencent à interagir avec des données sensibles et à exécuter des flux de travail transversaux, les organisations doivent s’assurer que la gouvernance, la gestion des risques et la planification stratégique sont intégrées à la conversation dès le départ.

Ce qui doit se passer ensuite

Il est temps d’arrêter de penser à ces agents comme à des chatbots et de commencer à les considérer comme des systèmes autonomes avec de véritables exigences de sécurité. Cela signifie :

  • Frontières de privilèges d’agent : Tout comme vous n’exécutez pas chaque processus en tant que root, les agents ont besoin d’un accès étendu aux outils et aux commandes.
  • Gouvernance de la mémoire partagée : La persistance du contexte doit être auditée, versionnée et chiffrée – en particulier lorsqu’elle est partagée entre sessions ou équipes.
  • Simulations d’attaque et équipes rouges : L’injection d’invite, l’empoisonnement de la mémoire et l’abus de commande doivent être traités comme des menaces de sécurité de premier plan.
  • Formation des employés : L’utilisation sûre et efficace des agents IA est une nouvelle compétence, et les gens ont besoin d’une formation. Cela les aidera à être plus productifs et à mieux sécuriser votre propriété intellectuelle.

Lorsque votre organisation se lance dans les agents intelligents, il est souvent préférable de marcher avant de courir. Acquérez de l’expérience avec des agents qui ont une portée limitée, des données limitées et des autorisations limitées. Apprenez à mesure que vous construisez des garde-fous organisationnels et acquérez de l’expérience, puis passez à des cas d’utilisation plus complexes, autonomes et ambitieux.

Vous ne pouvez pas vous asseoir sur cette question

Que vous soyez un directeur général de l’IA ou un directeur des systèmes d’information, vous pouvez avoir des préoccupations initiales différentes, mais votre chemin à suivre est le même. Les gains de productivité des agents de codage et des systèmes IA autonomes sont trop convaincants pour être ignorés. Si vous adoptez encore une approche « attendre et voir », vous êtes déjà en retard.

Ces outils ne sont plus expérimentaux – ils deviennent rapidement des éléments essentiels. Des sociétés comme Microsoft génèrent une grande partie de leur code via l’IA et améliorent leurs positions concurrentielles en conséquence. Des outils comme Claude Code réduisent considérablement le temps de développement et automatisent des flux de travail complexes dans de nombreuses sociétés à travers le monde. Les sociétés qui apprennent à exploiter ces agents en toute sécurité seront les premières à livrer, à s’adapter plus rapidement et à dépasser leurs concurrents.

Mais la vitesse sans sécurité est un piège. Intégrer des agents autonomes dans votre entreprise sans contrôles appropriés est une recette pour des pannes, des fuites de données et des répercussions réglementaires.

C’est le moment d’agir – mais agir intelligemment :

  • Lancez des programmes pilotes d’agent, mais exigez des examens de code, des autorisations d’outils et des sandbox.
  • Limitez l’autonomie à ce qui est nécessaire – pas tous les agents ont besoin d’un accès root ou d’une mémoire à long terme.
  • Audit la mémoire partagée et les appels d’outils, en particulier à travers des sessions à long terme ou des contextes collaboratifs.
  • Simulez des attaques en utilisant l’injection d’invite et l’abus de commande pour découvrir des risques réels avant que les attaquants ne le fassent.
  • Formez vos développeurs et vos équipes de produits sur les modèles d’utilisation sûrs, y compris le contrôle de portée, les comportements de secours et les chemins d’escalade.

La sécurité et la vitesse ne sont pas mutuellement exclusives – si vous construisez avec intention.

Les entreprises qui traitent les agents IA comme une infrastructure de base, et non comme des jouets ou des menaces, seront celles qui prospéreront. Les autres seront laissées à nettoyer les désordres – ou pire, à regarder depuis les tribunes.

L’ère de l’agent est arrivée. Ne réagissez pas. Préparez. Intégrez. Sécurisez.

Steve Wilson est le directeur des opérations d'intelligence artificielle chez Exabeam, où il dirige le développement de solutions de cybersécurité avancées basées sur l'intelligence artificielle pour les entreprises mondiales. Un dirigeant expérimenté dans le domaine de la technologie, Wilson a passé sa carrière à concevoir des plateformes cloud à grande échelle et des systèmes sécurisés pour les organisations du Global 2000. Il est largement respecté dans les communautés de l'IA et de la sécurité pour son habileté à combiner une expertise technique approfondie avec des applications réelles dans l'entreprise. Wilson est également l'auteur de The Developer’s Playbook for Large Language Model Security (O’Reilly Media), un guide pratique pour sécuriser les systèmes GenAI dans les piles logicielles modernes.