Suivez nous sur

L'impĂ©ratif sans secret : pourquoi les modèles de sĂ©curitĂ© traditionnels sont mis Ă  mal lorsque des agents d'IA interagissent avec le code

Des leaders d'opinion

L'impĂ©ratif sans secret : pourquoi les modèles de sĂ©curitĂ© traditionnels sont mis Ă  mal lorsque des agents d'IA interagissent avec le code

mm

En avril 2023, Samsung a dĂ©couvert que ses ingĂ©nieurs avaient divulguĂ© des informations sensibles Ă  ChatGPT.Mais c'Ă©tait un accident. Imaginez maintenant si ces dĂ©pĂ´ts de code avaient contenu des instructions dĂ©libĂ©rĂ©ment implantĂ©es, invisibles pour les humains mais traitĂ©es par une IA, conçues pour extraire non seulement du code, mais aussi chaque clĂ© API, identifiant de base de donnĂ©es et jeton de service auquel l'IA pouvait accĂ©der. Ce n'est pas une hypothèse. Des chercheurs en sĂ©curitĂ© l'ont dĂ©jĂ  dĂ©montrĂ© Ces attaques par « instructions invisibles » fonctionnent. La question n'est pas de savoir si cela se produira, mais quand.

La frontière qui n'existe plus

Pendant des dĂ©cennies, nous avons bâti notre sĂ©curitĂ© sur un postulat fondamental : le code est du code, et les donnĂ©es sont des donnĂ©es. Les injections SQL nous ont appris Ă  paramĂ©trer les requĂŞtes. Les attaques XSS (Cross-Site Scripting) nous ont appris Ă  Ă©chapper les sorties. Nous avons appris Ă  Ă©riger des barrières entre ce que font les programmes et ce que les utilisateurs saisissent.

Avec les agents d'IA, cette frontière a disparu.

Contrairement aux logiciels dĂ©terministes qui suivent des chemins prĂ©visibles, les modèles de langage Ă©tendus sont des boĂ®tes noires probabilistes incapables de distinguer les instructions lĂ©gitimes des dĂ©veloppeurs des entrĂ©es malveillantes. Lorsqu'un attaquant soumet une requĂŞte Ă  un assistant de programmation IA, il ne se contente pas de fournir des donnĂ©es ; il reprogramme l'application en temps rĂ©el. L'entrĂ©e devient alors le programme lui-mĂŞme.

Cela reprĂ©sente une rupture fondamentale avec tout ce que nous savons en matière de sĂ©curitĂ© des applications. Les pare-feu traditionnels basĂ©s sur la syntaxe, qui recherchent des schĂ©mas malveillants comme DROP TABLE ou tags, fail completely against natural language attacks. Researchers have demonstrated “semantic substitution” techniques where replacing “API keys” with “apples” in prompts allows attackers to bypass filters entirely. How do you firewall intent when it’s disguised as harmless conversation?

La réalité du zéro clic dont personne ne parle

Voici ce que la plupart des Ă©quipes de sĂ©curitĂ© ignorent : l’injection de messages explicites ne nĂ©cessite aucune intervention de l’utilisateur. Il s’agit souvent d’exploits qui s’exĂ©cutent sans clic. Un agent d’IA, se contentant d’analyser un dĂ©pĂ´t de code pour une tâche routinière, d’examiner une demande de fusion ou de consulter la documentation d’une API, peut dĂ©clencher une attaque sans aucune interaction humaine.

Considérons ce scénario, basé sur des techniques que les chercheurs ont déjà prouvéesUn acteur malveillant a intégré des instructions invisibles dans les commentaires HTML de la documentation d'une bibliothèque open source populaire. Tout assistant d'IA analysant ce code, qu'il s'agisse de GitHub Copilot, d'Amazon CodeWhisperer ou de tout autre outil d'aide au développement d'entreprise, devient un collecteur potentiel d'identifiants. Une seule bibliothèque compromise peut exposer des milliers d'environnements de développement.

Le danger ne réside pas dans le modèle LLM lui-même, mais dans le pouvoir que nous lui conférons. Dès l'instant où nous avons intégré ces modèles à des outils et des API, leur permettant d'extraire des données, d'exécuter du code et d'accéder à des secrets, nous avons transformé des assistants utiles en vecteurs d'attaque parfaits. Le risque ne dépend pas de l'intelligence du modèle, mais de sa connectivité.

Pourquoi l'approche actuelle est vouée à l'échec

L'industrie est actuellement obsédée par l'« alignement » des modèles et la mise en place de pare-feu plus performants. OpenAI renforce ces garde-fous. Anthropic se concentre sur l'IA constitutionnelle. Tous cherchent à créer des modèles infaillibles.

C'est une bataille perdue d'avance.

Si une IA est suffisamment intelligente pour être utile, elle l'est aussi pour être trompée. Nous tombons dans ce que j'appelle le « piège de la désinfection » : croire qu'un meilleur filtrage des entrées nous sauvera. Or, les attaques peuvent se dissimuler sous forme de texte invisible dans les commentaires HTML, être enfouies profondément dans la documentation ou encore être encodées de manières que nous n'avons pas encore imaginées. On ne peut pas désinfecter ce que l'on ne comprend pas contextuellement, et c'est précisément le contexte qui fait la puissance des LLM.

L'industrie doit se rendre à l'évidence : l'injection rapide sera un succès. La question est de savoir ce qui se passera ensuite.

Le changement architectural dont nous avons besoin

Nous sommes actuellement en pleine phase de correctifs, ajoutant frénétiquement des filtres d'entrée et des règles de validation. Mais tout comme nous avons fini par comprendre que la prévention des injections SQL nécessitait des requêtes paramétrées et non un meilleur échappement des chaînes, nous avons besoin d'une solution architecturale pour la sécurité de l'IA.

La rĂ©ponse rĂ©side dans un principe qui paraĂ®t simple mais qui nĂ©cessite de repenser la manière dont nous construisons nos systèmes : les agents d’IA ne devraient jamais possĂ©der les secrets qu’ils utilisent.

Il ne s'agit pas d'une meilleure gestion des identifiants ni de solutions de coffre-fort numĂ©riques amĂ©liorĂ©es. Il s'agit de considĂ©rer les agents d'IA comme des entitĂ©s uniques et vĂ©rifiables, et non comme des utilisateurs nĂ©cessitant un mot de passe. Lorsqu'un agent d'IA doit accĂ©der Ă  une ressource protĂ©gĂ©e, il doit :

  1. Authentification par son identité vérifiable (et non par un secret stocké).

  2. Recevez des identifiants juste à temps, valides uniquement pour cette tâche spécifique.

  3. Faites expirer automatiquement ces identifiants en quelques secondes ou minutes.

  4. Ne jamais stocker ni même « voir » des secrets qui perdurent depuis longtemps

Plusieurs approches Ă©mergent. RĂ´les AWS IAM pour les comptes de service, L'identitĂ© de la charge de travail de Google, Les secrets dynamiques de HashiCorp VaultLes solutions dĂ©diĂ©es comme Zero Trust Provisioning d'Akeyless convergent toutes vers cet avenir sans secrets. Les modalitĂ©s d'implĂ©mentation varient, mais le principe demeure : si l'IA n'a aucun secret Ă  dĂ©rober, l'injection de vulnĂ©rabilitĂ©s reprĂ©sente une menace considĂ©rablement rĂ©duite.

L'environnement de développement de 2027

D'ici trois ans, le fichier .env disparaĂ®tra du dĂ©veloppement assistĂ© par l'IA. Les clĂ©s API persistantes stockĂ©es dans les variables d'environnement seront considĂ©rĂ©es comme les mots de passe en clair aujourd'hui : une relique embarrassante d'une Ă©poque plus naĂŻve.

Désormais, chaque agent d'IA fonctionnera avec une stricte séparation des privilèges. Accès en lecture seule par défaut. Liste blanche d'actions standard. Environnements d'exécution isolés (sandbox) comme exigence de conformité. Nous cesserons de tenter de contrôler la pensée de l'IA et nous concentrerons entièrement sur le contrôle de ses capacités.

Il ne s'agit pas simplement d'une Ă©volution technique ; c'est un changement fondamental dans les modèles de confiance. Nous passons du principe « faire confiance, mais vĂ©rifier Â» au principe « ne jamais faire confiance, toujours vĂ©rifier et partir du principe qu'il y a compromission Â». Le principe du moindre privilège, longtemps prĂ´nĂ© mais rarement appliquĂ©, devient non nĂ©gociable lorsque votre dĂ©veloppeur junior est une IA qui traite quotidiennement des milliers d'entrĂ©es potentiellement malveillantes.

Le choix auquel nous sommes confrontés

L'intĂ©gration de l'IA dans le dĂ©veloppement logiciel est inĂ©vitable et largement bĂ©nĂ©fique. GitHub indique que les dĂ©veloppeurs utilisant Copilot exĂ©cutent leurs tâches 55 % plus rapidement.Les gains de productivitĂ© sont rĂ©els, et aucune organisation souhaitant rester compĂ©titive ne peut les ignorer.

Nous sommes à la croisée des chemins. Nous pouvons persévérer dans la voie actuelle en multipliant les garde-fous, en développant de meilleurs filtres, dans l'espoir de créer des agents d'IA infaillibles. Ou bien, nous pouvons reconnaître la nature fondamentale de la menace et repenser notre architecture de sécurité en conséquence.

L'incident Samsung a servi d'avertissement. La prochaine faille de sécurité ne sera pas accidentelle et ne se limitera pas à une seule entreprise. À mesure que les agents d'IA acquièrent davantage de capacités et accèdent à un plus grand nombre de systèmes, l'impact potentiel croît de façon exponentielle.

La question que se posent tous les RSSI, tous les responsables techniques et tous les dĂ©veloppeurs est simple : lorsqu’une injection de vulnĂ©rabilitĂ©s rĂ©ussit dans votre environnement (et elle rĂ©ussira), que trouvera l’attaquant ? DĂ©couvrira-t-il une mine d’informations d’identification Ă  longue durĂ©e de vie, ou un agent d’IA qui, bien que compromis, ne possède aucun secret Ă  voler ?

Le choix que nous faisons aujourd'hui déterminera si l'IA deviendra le plus grand accélérateur du développement logiciel ou la plus grande vulnérabilité que nous ayons jamais créée. La technologie permettant de concevoir des systèmes d'IA sécurisés et transparents existe déjà. La question est de savoir si nous l'adopterons avant que des attaquants ne nous y contraignent.

L'OWASP a dĂ©jĂ  identifiĂ© l'injection rapide comme le principal risque. dans leur Top 10 pour les demandes de LLM. Le NIST Ă©labore des lignes directrices Sur les architectures zĂ©ro confiance, les frameworks existent. La seule question est celle de la rapiditĂ© de mise en Ĺ“uvre face Ă  l'Ă©volution des attaques.

Biographie : Refael Angel est le cofondateur et directeur technique de Sans clĂ©Au sein de l'entreprise, il a dĂ©veloppĂ© la technologie de chiffrement Zero Trust brevetĂ©e. IngĂ©nieur logiciel chevronnĂ©, expert en cryptographie et sĂ©curitĂ© du cloud, Refael a auparavant occupĂ© le poste d'ingĂ©nieur logiciel senior au centre de R&D d'Intuit en IsraĂ«l. Il y a conçu des systèmes de gestion des clĂ©s de chiffrement dans des environnements de cloud public et des services d'authentification des machines. Il est titulaire d'une licence en informatique du Jerusalem College of Technology, obtenue Ă  l'âge de 19 ans.

Refael Angel est le cofondateur et directeur technique de Sans cléAu sein de l'entreprise, il a développé la technologie de chiffrement Zero Trust brevetée. Ingénieur logiciel chevronné, expert en cryptographie et sécurité du cloud, Refael a auparavant occupé le poste d'ingénieur logiciel senior au centre de R&D d'Intuit en Israël. Il y a conçu des systèmes de gestion des clés de chiffrement dans des environnements de cloud public et des services d'authentification des machines. Il est titulaire d'une licence en informatique du Jerusalem College of Technology, obtenue à l'âge de 19 ans.