Connect with us

Le risque de données d’IA non surveillé : exposition de secrets dans les flux de travail d’entreprise

Leaders d’opinion

Le risque de données d’IA non surveillé : exposition de secrets dans les flux de travail d’entreprise

mm

La plupart des discussions sur les risques d’IA d’entreprise commencent par une préoccupation familière : les employés qui collent des données client dans des chatbots. La confidentialité et l’exposition réglementaire dominent les titres et les briefings de conseil d’administration, et des recherches de Deloitte montrent que la confidentialité des données et la sécurité figurent parmi les principaux risques d’IA dont les organisations s’inquiètent.

Cependant, les données émergeant de l’utilisation réelle de l’entreprise racontent une histoire différente. Les informations sensibles les plus courantes qui entrent dans les outils d’IA ne sont pas les données personnelles. Ce sont des secrets et des informations d’identification.

Les clés API, les jetons d’accès, les webhooks et les artefacts d’authentification représentent désormais la plus grande part des expositions de données sensibles observées dans les invites d’IA. Ces divulgations proviennent rarement de la négligence ou d’une intention malveillante et surviennent plutôt lors de tâches routinières telles que le débogage d’une intégration défaillante, la résolution d’un problème d’automatisation, la résolution d’un problème de client ou la mise à jour de code. À mesure que l’IA s’intègre dans les flux de travail quotidiens, ces moments se produisent constamment et souvent en dehors de la visibilité des contrôles de sécurité traditionnels.

Les conséquences sont claires. À mesure que l’adoption de l’IA s’étend, les organisations obtiennent une image plus précise de l’endroit où les risques réels émergent, et la gouvernance doit évoluer pour les aborder.

Un risque d’exposition de données d’IA négligé se cache en plein jour

Une récente analyse d’utilisation d’IA menée par Nudge Security a examiné la télémétrie anonymisée dans des environnements d’entreprise pour comprendre comment les outils d’IA sont réellement utilisés sur le lieu de travail. Au lieu de s’appuyer sur des sondages ou des auto-déclarations, la recherche a analysé l’activité d’IA observée, les intégrations et le comportement des invites dans les écosystèmes SaaS d’entreprise.

Les résultats fournissent de nouvelles informations sur l’endroit où le risque d’IA émerge réellement dans l’utilisation d’entreprise. Les expositions de données sensibles dans les invites d’IA sont dominées par les informations d’identification opérationnelles. Les secrets et les informations d’identification représentent environ 48 pour cent des événements de données sensibles détectés, contre 36 pour cent pour les données financières et 16 pour cent pour les informations liées à la santé. Ces modèles suggèrent que le plus grand défi d’exposition de données d’IA n’est pas la fuite de confidentialité, mais la prolifération de secrets.

La même recherche montre que l’adoption de l’IA est allée au-delà de l’expérimentation. Les outils d’IA sont intégrés dans les flux de travail, connectés aux plateformes d’entreprise et de plus en plus capables de prendre des actions autonomes. Les principaux fournisseurs de modèles de langage à grande échelle sont maintenant quasi ubiquitaires, avec OpenAI présent dans 96 pour cent des organisations et Anthropic dans 78 pour cent.

Des recherches de McKinsey montrent que 88 pour cent des organisations rapportent une utilisation régulière de l’IA dans au moins une fonction commerciale, contre 78 pour cent il y a un an. Les outils d’intelligence de réunion, les plateformes de codage assistées par l’IA, les générateurs de présentation et les technologies vocales sont largement déployés, reflétant la façon dont l’IA s’est étendue des interfaces de chat aux flux de travail quotidiens. Cette expansion est importante car le risque suit l’utilisation. À mesure que l’IA s’intègre dans les environnements de développement, les plateformes de collaboration et les flux de travail de support client, elle gagne en proximité avec les systèmes sensibles et les données opérationnelles.

L’adoption a également été stimulée par le bas. Une étude récente de KPMG a révélé que 44 pour cent des employés utilisent des outils d’IA de manière non autorisée par leurs employeurs, reflétant à quel point rapidement ces outils entrent dans les flux de travail quotidiens. Les employés installent des extensions de navigateur, connectent des assistants et expérimentent des intégrations pour accélérer les tâches quotidiennes, souvent en dehors des processus de procurement centralisés. Les analystes de sécurité décrivent ce modèle comme l’IA fantôme, dans laquelle les outils fonctionnent à l’intérieur des navigateurs et des flux de travail SaaS au-delà de la visibilité traditionnelle de l’informatique. Puisque ces outils peuvent être déployés instantanément et nécessitent peu de configuration technique, les programmes de gouvernance basés sur les processus d’approbation des fournisseurs et les politiques d’utilisation acceptable ont du mal à suivre la façon dont l’IA est réellement introduite et utilisée dans l’entreprise.

Pourquoi les secrets divulgués peuvent créer un risque opérationnel immédiat

Les données personnelles restent sensibles et réglementées, mais les secrets ont un impact opérationnel immédiat. Une clé API divulguée peut fournir l’accès aux systèmes de production. Un jeton compromis peut exposer les référentiels. Une URL de webhook peut permettre une automatisation non autorisée. Les informations d’identification apparaissent fréquemment dans les invites d’IA lors des flux de travail routiniers. Les développeurs collent des jetons dans les interfaces de chat pendant la résolution des échecs d’authentification, les ingénieurs peuvent partager des extraits de configuration pour diagnostiquer les problèmes d’intégration. Ces actions ne sont pas inhabituelles. Les secrets sont intégrés dans les flux de travail techniques et apparaissent dans les journaux, les scripts, les fichiers de configuration et les sorties d’automatisation. Lorsque les équipes sont sous pression pour résoudre les problèmes rapidement, elles peuvent partager ces artefacts sans s’arrêter pour considérer les données sensibles qu’ils contiennent.

Les interfaces d’IA amplifient ce comportement. Les invites encouragent le partage de contexte. Les téléchargements de fichiers supportent une résolution de problèmes plus riche. Les flux de travail intégrés facilitent le déplacement de données entre les systèmes. La recherche de Nudge Security a révélé que 17 pour cent des invites incluent des activités de copier-coller ou de téléchargement de fichiers. Dans cet environnement, les informations d’identification sensibles peuvent être exposées en quelques secondes.

La gouvernance traditionnelle manque le risque comportemental

Les programmes de gouvernance d’IA se concentrent souvent sur les contrôles formels tels que les politiques et les outils approuvés. Cette approche suppose que le risque provient d’une utilisation abusive ou d’un comportement de modèle. Dans la pratique, les expositions les plus significatives se produisent lors des flux de travail routiniers effectués par des employés bien intentionnés.

Le paysage de l’IA évolue rapidement, avec de nouvelles technologies publiées quotidiennement. À mesure que vos employés utilisent les derniers outils, ils peuvent contourner l’approche traditionnelle des contrôles de réseau parce qu’ils ne peuvent simplement pas suivre. Le navigateur permet l’observation directe du comportement contextuel, qui fournit la flexibilité nécessaire pour suivre le paysage constamment évolutif du travail moderne.

Cette déconnexion explique pourquoi les organisations peuvent mettre en œuvre des politiques solides et subir encore des expositions de données sensibles. Les politiques établissent des attentes. Le comportement détermine les résultats. Une gouvernance efficace nécessite une visibilité sur la façon dont les outils d’IA sont réellement utilisés et des garde-fous qui guident les décisions plus sûres au moment où les données sont partagées.

Les intégrations et les agents élargissent la portée de l’exposition

Le profil de risque d’un outil d’IA est façonné par ce qu’il peut accéder. Les intégrations créent des chemins de confiance entre les systèmes. Les autorisations OAuth, les jetons d’API et les comptes de service permettent aux outils d’IA de récupérer des documents, de mettre à jour des tickets ou d’interagir avec des référentiels de code. Des recherches sur l’adoption de l’IA d’entreprise mettent en évidence que les intégrations définissent effectivement la portée de l’exposition. Une autorisation mal configurée ou un jeton compromis peut exposer des référentiels de documents ou des environnements de développement entiers, car les connexions de confiance permettent le déplacement de données à une vitesse machine.

Les agents d’IA introduisent une complexité supplémentaire. Les premiers déploiements donnent souvent la priorité à la fonctionnalité plutôt qu’au principe de moindre privilège. Les autorisations accordées pendant l’expérimentation peuvent persister longtemps après que les cas d’utilisation initiaux aient évolué. Au fil du temps, ces autorisations accumulées créent un risque silencieux. Les équipes de sécurité doivent traiter les intégrations et les autorisations d’agents comme des décisions d’accès durables plutôt que des commodités temporaires.

Que doivent faire les équipes de sécurité maintenant

La réduction de l’exposition des secrets dans les flux de travail d’IA nécessite un changement de contrôles réactifs à une gouvernance qui reflète la façon dont le travail se déroule réellement. Les dirigeants de la sécurité peuvent commencer par des étapes pratiques qui améliorent la visibilité, guident un comportement plus sûr et réduisent l’exposition sans ralentir la productivité :

  • Cartographiez où les interactions d’IA se produisent.
    Identifiez les environnements où les données entrent dans les outils d’IA, y compris les extensions de navigateur, les environnements de développement, les plateformes d’automatisation et les interfaces de chat. Une visibilité continue sur ces points de contact fournit la base d’une gouvernance efficace.
  • Intervenez au moment où les décisions sont prises.
    Mettez en œuvre un balayage de secrets, des invites de rédaction et des avertissements en temps réel qui avertissent les utilisateurs lorsque des informations d’identification ou des artefacts sensibles sont sur le point d’être partagés. Des conseils opportuns réduisent l’exposition accidentelle tout en préservant la rapidité du flux de travail.
  • Appliquez une gouvernance d’intégration avec la même rigueur que les applications OAuth.
    Examinez les outils d’IA connectés à l’e-mail, aux documents, aux systèmes de ticketing et aux référentiels. Faites respecter les étendues de moindre privilège et effectuez des examens périodiques d’autorisation pour réduire le risque d’exposition à long terme.
  • Créez des flux de travail plus sûrs pour le débogage et le support.
    Fournissez des modèles rédigés, des connecteurs sécurisés et des outils internes pour analyser les journaux ou les fichiers de configuration afin que les équipes puissent utiliser l’IA pour résoudre des problèmes sans exposer les informations d’identification en direct.
  • Établissez des garde-fous pour l’automatisation basée sur les agents.
    Exigez une approbation humaine pour les actions à forte incidence, enregistrez l’activité de l’agent de manière centralisée et utilisez des jetons d’accès étendus pour prévenir la prolifération des autorisations et l’automatisation involontaire.
  • Ancrez la formation dans les flux de travail réels.
    L’éducation est la plus efficace lorsqu’elle reflète des tâches courantes telles que le débogage des intégrations, la révision des journaux ou le téléchargement de fichiers. Des exemples pratiques aident les employés à reconnaître le risque au moment où il se présente.

Ces mesures alignent la gouvernance sur le travail quotidien, permettant aux organisations de réduire l’exposition des secrets tout en soutenant les gains de productivité qui stimulent l’adoption de l’IA.

De la politique d’IA à la gouvernance comportementale d’IA

L’IA évolue d’un outil de productivité à une couche opérationnelle tissée dans le travail quotidien, avec des recherches montrant que les agents d’IA sont maintenant intégrés dans les flux de travail d’entreprise et des prévisions projetant des agents spécifiques à des tâches à l’intérieur d’une grande partie des applications d’entreprise. À mesure que l’adoption se renforce, les risques dominants s’étendent au-delà des violations de confidentialité ou de l’utilisation abusive des modèles. Ils proviennent de l’intersection entre les personnes, les autorisations et les plateformes dans les flux de travail réels.

L’exposition de secrets dans les invites d’IA est un signal visible de cette transformation plus large. Elle met en évidence les limites des contrôles basés sur le périmètre et de la gouvernance basée uniquement sur les politiques, et renforce la nécessité de garde-fous qui fonctionnent là où les décisions sont prises. Les organisations qui s’adaptent passeront d’une gouvernance réactive à des modèles de gouvernance fondés sur un comportement réel. Elles traiteront les intégrations et les autorisations comme des relations d’accès durables. Elles guideront les employés au moment de l’action plutôt que de s’appuyer uniquement sur l’application des politiques.

L’IA passe d’un outil à un collaborateur dans le travail moderne. Sécuriser cette collaboration nécessite une gouvernance qui suit le rythme, en protégeant les données critiques tout en guidant des décisions plus sûres et en maintenant la rapidité et l’efficacité que l’IA rend possible.

Russell Spitler est le co-fondateur et PDG de Nudge Security, le leader en gouvernance de sécurité SaaS et IA. Russell a plus de 20 ans d'expérience dans la création de produits et de sociétés de démarrage qui sécurisent les organisations à travers le monde. Avant Nudge, Russell a occupé des postes de leadership en matière de produits, d'ingénierie et de stratégie chez AT&T Cybersecurity, AlienVault (acquis par AT&T Cybersecurity) et Fortify Software. Chez AlienVault, il a co-fondé l'Open Threat Exchange, la plus grande communauté d'intelligence sur les menaces ouvertes au monde, avec plus de 370 000 participants à l'échelle mondiale aujourd'hui.