Connect with us

Garantir une sécurité résiliente pour l’IA autonome dans les soins de santé

Santé

Garantir une sécurité résiliente pour l’IA autonome dans les soins de santé

mm

La guerre déchaînée contre les failles de sécurité représente un défi de plus en plus grand pour les organisations de soins de santé dans le monde entier. Selon les statistiques actuelles, le coût moyen d’une faille de sécurité s’élève désormais à $4,45 million dans le monde, un chiffre qui plus que double pour atteindre $9,48 million pour les prestataires de soins de santé qui servent des patients aux États-Unis. S’ajoute à ce problème déjà effrayant le phénomène moderne de prolifération des données inter- et intra-organisationnelles. Un chiffre inquiétant de 40% des failles de sécurité signalées implique des informations réparties sur plusieurs environnements, ce qui élargit considérablement la surface d’attaque et offre de nombreuses voies d’entrée pour les attaquants.

La croissance de l’autonomie de l’IA générative amène une ère de changement radical. Par conséquent, avec elle vient la marée pressante de risques de sécurité supplémentaires, car ces agents intelligents avancés sortent de la théorie pour être déployés dans plusieurs domaines, tels que le secteur de la santé. Comprendre et atténuer ces nouvelles menaces est crucial pour mettre à l’échelle l’IA de manière responsable et améliorer la résilience d’une organisation contre les cyberattaques de toute nature, qu’il s’agisse de menaces de logiciels malveillants, de failles de sécurité des données ou même d’attaques de chaîne d’approvisionnement orchestrées.

Résilience à l’étape de conception et de mise en œuvre

Les organisations doivent adopter une stratégie de défense proactive et évolutionnaire pour répondre aux risques de sécurité croissants causés par l’IA, en particulier dans les soins de santé, où les enjeux impliquent à la fois le bien-être des patients et la conformité aux mesures réglementaires.

Cela nécessite une approche systématique et élaborée, commençant par le développement et la conception des systèmes d’IA, et se poursuivant jusqu’à la mise en œuvre à grande échelle de ces systèmes.

  • La première et la plus critique étape que les organisations doivent entreprendre consiste à cartographier et à modéliser les menaces de leur ensemble de pipeline d’IA, de l’ingestion des données à la formation, la validation, le déploiement et l’inférence du modèle. Cette étape facilite l’identification précise de tous les points de vulnérabilité et d’exposition potentiels avec une granularité des risques basée sur l’impact et la probabilité.
  • Deuxièmement, il est important de créer des architectures sécurisées pour le déploiement de systèmes et d’applications qui utilisent des modèles de langage à grande échelle (LLM), y compris ceux dotés de capacités Agentic AI. Cela implique de considérer minutieusement diverses mesures, telles que la sécurité des conteneurs, la conception sécurisée des API et la manipulation sécurisée des jeux de données de formation sensibles.
  • Troisièmement, les organisations doivent comprendre et mettre en œuvre les recommandations de diverses normes/cadres. Par exemple, adhérer aux lignes directrices établies par NIST’s AI Risk Management Framework pour une identification et une atténuation complètes des risques. Elles pourraient également considérer OWASP’s advice sur les vulnérabilités uniques introduites par les applications LLM, telles que l’injection de prompt et la manipulation de sortie non sécurisée.
  • De plus, les techniques classiques de modélisation des menaces doivent également évoluer pour gérer efficacement les attaques uniques et complexes générées par l’IA de génération, y compris les attaques d’empoisonnement de données insidieuses qui menacent l’intégrité du modèle et la possibilité de générer du contenu sensible, biaisé ou produit de manière inappropriée dans les sorties de l’IA.
  • Enfin, même après le déploiement, les organisations devront rester vigilantes en pratiquant des manœuvres de red teaming régulières et des audits de sécurité de l’IA spécialisés qui ciblent spécifiquement les sources telles que les biais, la robustesse et la clarté pour continuellement découvrir et atténuer les vulnérabilités dans les systèmes d’IA.

Notamment, la base de la création de systèmes d’IA solides dans les soins de santé est de protéger fondamentalement l’ensemble du cycle de vie de l’IA, de la création au déploiement, avec une compréhension claire des nouvelles menaces et une adhésion aux principes de sécurité établis.

Mesures pendant le cycle de vie opérationnel

En plus de la conception et du déploiement sécurisés initiaux, une posture de sécurité de l’IA robuste nécessite une attention vigilante et une défense active tout au long du cycle de vie de l’IA. Cela nécessite une surveillance continue du contenu, en exploitant la surveillance basée sur l’IA pour détecter immédiatement les sorties sensibles ou malveillantes, tout en respectant les politiques de publication d’informations et les autorisations des utilisateurs. Pendant le développement du modèle et dans l’environnement de production, les organisations devront scanner activement les logiciels malveillants, les vulnérabilités et les activités adverses en même temps. Tout cela est, bien sûr, complémentaire aux mesures de sécurité classiques.

Pour encourager la confiance des utilisateurs et améliorer l’interprétabilité de la prise de décision de l’IA, il est essentiel d’utiliser soigneusement les outils Explainable AI (XAI) pour comprendre la raison sous-jacente des sorties et des prédictions de l’IA.

Un contrôle et une sécurité améliorés sont également facilités par la découverte automatisée des données et la classification des données intelligentes avec des classificateurs dynamiques qui changent, qui fournissent une vue critique et à jour de l’environnement de données en constante évolution. Ces initiatives découlent de l’impératif d’appliquer des contrôles de sécurité solides comme les méthodes de contrôle d’accès basées sur les rôles (RBAC) à grain fin, les cadres de chiffrement de bout en bout pour protéger les informations en transit et au repos, et les techniques de masquage des données efficaces pour cacher les données sensibles.

Une formation à la sensibilisation à la sécurité approfondie pour tous les utilisateurs d’entreprise qui traitent des systèmes d’IA est également essentielle, car elle établit un pare-feu humain critique pour détecter et neutraliser les attaques d’ingénierie sociale possibles et d’autres menaces liées à l’IA.

Sécuriser l’avenir de l’IA Agentic

La base de la résilience durable face aux menaces de sécurité de l’IA en évolution repose sur la méthode multidimensionnelle et continue proposée de surveillance étroite, de balayage actif, d’explication claire, de classification intelligente et de sécurisation stricte des systèmes d’IA. Cela, bien sûr, s’ajoute à l’établissement d’une culture de sécurité axée sur l’humain et de contrôles de sécurité classiques matures. À mesure que les agents d’IA autonomes sont intégrés dans les processus organisationnels, la nécessité de contrôles de sécurité robustes augmente. La réalité d’aujourd’hui est que les failles de sécurité dans les nuages publics se produisent et coûtent en moyenne $5,17 million, soulignant clairement la menace pour les finances d’une organisation ainsi que pour sa réputation.

En plus des innovations révolutionnaires, l’avenir de l’IA dépend du développement de la résilience avec une base de sécurité intégrée, des cadres de fonctionnement ouverts et des procédures de gouvernance serrées. Établir la confiance dans ces agents intelligents décidera finalement de la manière dont ils seront adoptés de manière extensive et durable, façonnant le cours même du potentiel transformateur de l’IA.

Vipin Varma est le vice-président senior et chef de la pratique de la cybersécurité chez CitiusTech.

Avec plus de 35 ans d'expérience dans la cybersécurité et les domaines ICT plus larges, Vipin apporte une expertise approfondie et un leadership stratégique pour conduire une transformation numérique sécurisée et résiliente à travers l'écosystème de la santé.

Avant CitiusTech, Vipin a dirigé l'activité de cybersécurité pour les clients mondiaux des sciences de la vie, des soins de santé, de l'énergie et des services publics chez Tata Consultancy Services, où il a passé plus de 12 ans à élaborer des stratégies de cybersécurité dans des industries réglementées. Avant d'entrer dans le secteur privé, il a servi pendant plus de 23 ans dans l'armée indienne, où il a occupé des postes clés, notamment en commandant une unité dans des opérations de contre-insurrection actives, en dirigeant les TI et les communications pour une mission de maintien de la paix de l'ONU au Soudan, et en gérant des programmes technologiques complexes.