Suivez nous sur

Serveurs LLM et MCP : un nouveau modèle pour une IA sécurisée dans l’accès à distance

Des leaders d'opinion

Serveurs LLM et MCP : un nouveau modèle pour une IA sécurisée dans l’accès à distance

mm

De plus en plus d'organisations adoptent les modèles de langage à grande échelle (LLM). Ces modèles excellent dans l'interprétation du langage naturel, la résolution de problèmes et l'automatisation des tâches répétitives et routinières qui ralentissent les administrateurs. Lorsqu'un assistant IA peut traiter une instruction telle que « connectez-moi au cluster Linux principal et vérifiez les échecs de connexion » et exécuter immédiatement des actions entièrement orchestrées, les gains d'efficacité et de productivité sont indéniables.

Dans ce contexte, les LLM s'intègrent de plus en plus aux aspects les plus sensibles des opérations informatiques, notamment aux outils utilisés par les équipes pour gérer les connexions à distance et les accès privilégiés dans les environnements hybrides, cloud et sur site. Les systèmes d'accès à distance se situent au carrefour de la confiance, de l'identité et du contrôle opérationnel. Ils gèrent les sessions d'administrateur, assurent l'authentification et connectent les charges de travail sensibles aux personnes chargées de leur maintenance.

Pourquoi l'IA a besoin d'une couche de médiation pour l'accès à distance

L'extension des LLM aux flux de travail privilégiés est certes pratique, mais aussi problématique. Pour exécuter une commande ou se connecter à un hôte, certains outils d'IA récupèrent simplement les identifiants et les transmettent via le LLM pour une utilisation ultérieure. Ce raccourci, bien que pratique, est potentiellement dangereux. Si un modèle reçoit des mots de passe ou des clés, le périmètre des privilèges s'effondre. L'organisation perd le contrôle de la gestion des identifiants, l'auditabilité devient compromise et le LLM se transforme en un nouvel acteur opaque ayant accès au cœur de l'environnement.

De plus, les modèles peuvent être influencés par des données manipulées, ce qui accroît encore les risques liés à la divulgation d'identifiants. Par ailleurs, leur besoin en données contextuelles les rend particulièrement vulnérables aux problèmes de sécurité lorsqu'ils sont associés à des systèmes protégeant les clés, les jetons et les accès administratifs. En définitive, les modèles LLM (ainsi que les outils et modèles d'IA associés) peuvent s'avérer extrêmement utiles, mais ils ne devraient jamais être autorisés à détenir ou à gérer des secrets. Leur maturité actuelle ne permet pas une telle confiance.

Face à ces préoccupations et à ces vulnérabilités, une question centrale se pose désormais aux DSI, aux RSSI et aux responsables des opérations : Comment pouvons-nous permettre aux LLM de nous aider, sans pour autant les laisser s'immiscer de trop près dans nos processus de travail privilégiés ?

Heureusement, une solution émerge qui transforme les faiblesses architecturales en atouts : les serveurs MCP (Model Context Protocol).

Serveurs MCP : repenser l’interaction des LLM avec l’infrastructure

Les serveurs MCP agissent comme des intermédiaires sécurisés – véritables « sas » pour l'IA – permettant aux LLM de demander des actions sans jamais avoir à manipuler les identifiants ou les accès privilégiés nécessaires. À mesure que les organisations intègrent davantage l'IA dans leurs opérations, les approches de type MCP s'imposent comme la référence pour une intégration sûre et évolutive.

Les serveurs MCP introduisent une séparation des responsabilités que de nombreux architectes de sécurité considèrent depuis longtemps comme essentielle : l’IA apporte son assistance, mais un système contrôlé exécute les actions. Au lieu de donner au LLM l’autorité d’agir directement, le modèle se limite à exprimer l’intention (par exemple, « se connecter ici », « collecter les journaux », « vérifier cette politique »), tandis que le serveur MCP interprète ces requêtes, applique la politique et les achemine via des outils validés. Il est important de noter que cette approche est conforme aux principes décrits dans… Cadre de gestion des risques NIST AI, qui met l'accent sur les limites des outils, les autorisations médiatisées et l'escalade contrôlée par l'humain.

Ce qui rend cette conception particulièrement efficace, c'est que le LLM ne reçoit jamais d'informations confidentielles. L'authentification est gérée en interne par injection sécurisée d'identifiants. De ce fait, le LLM ne voit que les résultats, jamais les secrets eux-mêmes. Le LLM peut décrire ce qui s'est passé, aider à prioriser les problèmes et guider un utilisateur dans les prochaines étapes, mais il ne peut pas s'authentifier lui-même.

Les recherches en sécurité soulignent de plus en plus que la couche de transport entre les modèles d'IA et les outils locaux constitue un élément essentiel de la surface d'attaque. Par exemple, Les 10 meilleures candidatures LLM selon l'OWASP Cela met en évidence comment des interactions de plugins non sécurisées – en particulier celles exposées via des points de terminaison HTTP locaux ouverts – peuvent permettre à des processus locaux non fiables de déclencher des actions privilégiées. L'architecture de type MCP évite ce problème en s'appuyant sur des canaux de communication limités à l'utilisateur et imposés par le système d'exploitation, tels que les tubes nommés, qui offrent une isolation renforcée. Cette approche est conforme à Les avertissements plus généraux de l'ENISA concernant les points d'attachement non sécurisés de l'IA et les risques qu'ils engendrent dans les environnements à haut privilège.

Un autre avantage clé des serveurs MCP est leur capacité à exécuter des actions à l'intérieur Sessions à distance. Grâce à l'utilisation de canaux virtuels sécurisés ou de mécanismes équivalents, les serveurs MCP peuvent effectuer des opérations directement dans les environnements RDP ou SSH, sans avoir recours à des scripts fragiles contournant l'authentification multifacteur. Cette approche allie simplicité d'utilisation et gouvernance : les administrateurs bénéficient d'une automatisation performante, sans compromettre les principes du modèle Zero Trust.

Ensemble, ces caractéristiques redéfinissent ce que signifie une « intégration sécurisée de l’IA ». Au lieu d’encapsuler l’IA autour de systèmes sensibles, les organisations interposent une couche de sécurité renforcée, définissant ce que l’IA est autorisée à demander et à recevoir – et, tout aussi important, ce qu’elle n’est jamais autorisée à voir.

Avantages opérationnels des architectures LLM + MCP

Les avantages opérationnels de cette conception sont considérables. En intégrant l'IA à la plateforme MCP, les équipes informatiques peuvent orchestrer la configuration de l'environnement, la standardisation des configurations et les tâches multisessions à l'aide d'un langage naturel simple. Ceci permet de réduire significativement le délai entre l'identification et la résolution des problèmes, notamment dans les environnements hybrides où les changements de contexte ralentissent généralement l'ensemble des opérations.

Ces améliorations sont également conformes aux prévisions et recommandations plus générales du secteur. Gartner L'utilisation de LLM pour les opérations informatiques représente un accélérateur majeur pour la gestion des infrastructures hybrides, permettant aux équipes de travailler plus rapidement sans compromettre la gouvernance. Le modèle analyse les journaux, synthétise des ensembles de données complexes et guide les utilisateurs dans le dépannage, tandis que la couche MCP garantit la conformité et la traçabilité de chaque action.

Le résultat n'est pas seulement une vitesse accrue, mais aussi une force accrue. gouvernanceLorsqu'un LLM achemine systématiquement les tâches via les mêmes chemins sécurisés, les organisations bénéficient de pistes d'audit fiables, de flux de travail reproductibles et d'une attribution claire entre l'activité humaine et celle de l'IA. Les journaux incluent les invites, les appels d'outils, les détails des sessions et les références aux politiques, offrant ainsi aux équipes de conformité la transparence dont elles ont de plus en plus besoin et qu'elles attendent dans les environnements pilotés par l'IA.

Cette approche présente également des avantages culturels. En déchargeant les équipes des tâches répétitives (comme la revue des journaux, les contrôles répétitifs et les tâches administratives fastidieuses), elles peuvent concentrer leurs efforts sur des missions à plus forte valeur ajoutée. Cela permet souvent d'améliorer l'efficacité et le moral des équipes, notamment au sein des services d'exploitation surchargés par la prolifération des infrastructures hybrides.

Enfin, comme les architectures MCP peuvent prendre en charge plusieurs LLM, les organisations ne sont pas obligées de traiter avec un seul fournisseur. Elles peuvent choisir des modèles commerciaux, open source ou sur site, en fonction de leurs exigences réglementaires et de leurs préférences en matière de gouvernance des données.

Risques de sécurité qui nécessitent encore une attention particulière

Bien que les avantages que nous avons explorés soient substantiels – et à certains égards transformateurs –, il est nécessaire et responsable de souligner que même avec une couche de médiation sécurisée, Les environnements assistés par LLM ne sont pas sans risque.Il convient de souligner quatre points qui persistent :

  • Comme indiqué précédemment, l'injection rapide – directe et indirecte – demeure l'une des principales préoccupations et continue d'être l'un des points essentiels. classes d'attaques les plus largement documentées contre les LLM.
  • L'exposition des métadonnées est une autre source de préoccupation. Bien que les serveurs MCP protègent les identifiants, à moins que les équipes n'appliquent des pratiques rigoureuses de minimisation des données, les invites et les réponses peuvent toujours révéler les noms d'hôtes, les chemins internes et les schémas de topologie.
  • Les systèmes basés sur MCP ajoutent de nouvelles identités de machine : serveurs d’outils, canaux virtuels, processus d’agent. Selon les études sectoriellesDans de nombreuses organisations, les identités de machines surpassent largement les identités humaines, et la mauvaise gestion de ces identités est une source croissante de violations de données.
  • Enfin, la chaîne d'approvisionnement en IA ne saurait être négligée. Les mises à jour des modèles, les extensions d'outils et les couches d'intégration nécessitent une validation continue. Analyse de l'ENISA souligne que les systèmes d'IA introduisent une chaîne d'approvisionnement plus large et plus fragile que les piles logicielles traditionnelles.

Les 12 prochains mois : une voie pratique à suivre

Les organisations qui envisagent une automatisation pilotée par LLM dans des environnements privilégiés devraient considérer la médiation de type MCP comme la norme attendue. Au cours de l'année à venir, les dirigeants peuvent prendre plusieurs mesures concrètes, notamment :

  • Mettre en place un modèle de gouvernance interne définissant quels LLM sont agréés et à quelles données ils peuvent accéder.
  • Veillez à ce que toutes les actions privilégiées pilotées par l'IA transitent par une couche de type MCP plutôt que d'interagir directement avec les informations d'identification.
  • Intégrer les flux de travail initiés par l'IA dans les cadres PAM existants.
  • Adoptez une approche de type « politique sous forme de code » pour définir et tester les limites des outils.
  • Privilégier la minimisation des données.
  • Intégrer des équipes rouges spécifiques à l'IA, axées sur la manipulation des prompts, le comportement des modèles et le renforcement des interfaces locales.

Le dernier mot

Les modèles d'intelligence artificielle (LLM) transforment l'accès à distance et les opérations privilégiées, offrant des niveaux inédits de rapidité, de guidage et d'automatisation. Toutefois, exploiter pleinement ce potentiel en toute sécurité exige une architecture rigoureuse : une couche de médiation sécurisée et auditable entre les modèles d'IA et les systèmes sensibles. Les serveurs MCP fournissent cette structure. Ils permettent à l'IA d'apporter son aide sans pour autant lui confier les pleins pouvoirs, alliant innovation et gouvernance conformément aux exigences actuelles du modèle Zero Trust.

Pour les organisations qui cherchent à exploiter l'IA de manière responsable et rentable, les modèles de type MCP représentent un plan pratique et tourné vers l'avenir – un plan où les LLM amplifient l'expertise humaine, plutôt que de compromettre involontairement mais invariablement la sécurité des accès privilégiés et des flux de travail.

En tant que président et chef de la direction de DévolutionsDavid dirige la stratégie d'entreprise et supervise le développement produit, en mettant l'accent sur l'innovation, la sécurité et l'ergonomie. Après avoir fondé Devolutions en 2004 en tant que société de conseil en logiciels, il a réorienté l'activité en 2010 vers le développement de solutions informatiques performantes et conviviales. Aujourd'hui, Devolutions accompagne plus d'un million d'utilisateurs dans plus de 140 pays et est reconnue comme un leader de confiance dans la gestion des accès privilégiés et la sécurité informatique des PME. Revenant sur le parcours de l'entreprise, David attribue son succès à sa solide expertise en architecture logicielle, à son esprit d'entreprise et à son engagement indéfectible envers la satisfaction client.