Connect with us

Leaders d’opinion

IA vs IA : La Nouvelle Réalité de la Cybersécurité

mm mm

Les cyberattaques alimentées par l’IA sont arrivées, confirmant ce qui n’était autrefois qu’un risque théorique, mais anticipé, et elles annoncent une nouvelle ère dans le paysage des menaces. Avec des agents IA capables de lancer des campagnes complexes, de bout en bout, en quelques minutes, les cybercriminels peuvent identifier et exploiter les vulnérabilités des entreprises à la vitesse de la machine. Les règles de l’engagement ont changé : la défense cybernétique d’hier ne peut plus suivre le rythme de l’offensive alimentée par l’IA d’aujourd’hui.

Alors que l’IA renforce les menaces cybernétiques, les entreprises doivent déployer leurs propres capacités de défense alimentées par l’IA pour suivre le rythme en termes de vitesse, d’échelle et de précision. Pour l’instant, les cyber-adversaires suivent encore des tactiques, des techniques et des procédures (TTP) familières, mais l’IA accélère et améliore leur livre de jeu. De plus, les modèles d’IA des entreprises sont également une nouvelle cible via l’empoisonnement de modèles et l’ingénierie sociale basée sur le langage, obligeant les équipes de cybersécurité à sécuriser correctement leurs capacités d’IA. Par conséquent, la sécurité devrait être une partie intégrante de la stratégie d’IA plus large d’une organisation.

Qu’est-ce qui différencie les cyberattaques alimentées par l’IA ?

Dans un monde numérique déjà saturé d’essais d’intrusion cybernétique virtuellement ininterrompus, la barrière à l’entrée pour un acteur malveillant a été réduite, augmentant non seulement le volume mais aussi la complexité des attaques. Les attaques alimentées par l’IA peuvent désormais utiliser l’IA ou l’apprentissage automatique (ML) pour automatiser, accélérer ou améliorer chaque phase du cycle de vie de l’attaque, de la reconnaissance et de la collecte d’informations à l’exploitation et à l’exfiltration de données sensibles.

S’en remettre exclusivement aux processus et technologies de sécurité existants sans déployer la même technologie avancée que les adversaires utilisent donne à l’adversaire un avantage qui est presque impossible à égaliser sans une IA défensive. Les organisations sont déjà submergées par la surveillance de leur entreprise face à des acteurs de menaces traditionnels. Les attaques alimentées par l’IA vont aggraver la fatigue des alertes. Cela nécessite une évolution des processus gérés par l’homme à un effectif cybernétique humain/numérique hybride.

Cartographiez chaque actif numérique

Dans le monde d’aujourd’hui, comprendre les points d’entrée potentiels à travers l’environnement d’une entreprise est un minimum, mais cela est encore hors de portée pour de nombreuses grandes entreprises. Au-delà des seuls systèmes et actifs numériques, il est nécessaire d’avoir une cartographie complète de toutes les identités et les accès au sein d’une organisation. L’identité numérique, qui relie les caractéristiques physiques et comportementales à un individu, est bien comprise avec les contrôles existants nécessaires pour gérer l’accès numérique.

Cependant, comprendre le paysage de l’entreprise des identités non humaines (INH) est essentiel pour sécuriser les actifs numériques. La réalisation de la valeur potentielle de l’IA au sein d’une organisation signifie donner aux agents IA l’accès et la permission de compléter de manière autonome un processus commercial. Tout comme les environnements cloud de l’ère de sécurité précédente, les flux de travail alimentés par les agents d’aujourd’hui font démarrer et arrêter les INH à grande échelle, nécessitant une capacité avancée de gestion et de suivi de l’endroit où ils opèrent dans l’environnement et de la manière dont ils réalisent leurs missions ou rôles prévus.

Les entreprises devraient étendre la gouvernance des identités sur le cycle de vie de l’identité de l’agent et surveiller les actions des agents, tout comme elles surveillent l’accès des utilisateurs humains aujourd’hui pour les comportements de risque interne ou la compromission de compte des acteurs de menaces. À mesure que les capacités des agents prennent plus d’autonomie et de travail critique pour l’entreprise, comprendre à quoi ressemble leur empreinte d’identité et leur modèle d’accès est crucial pour mettre en œuvre les contrôles d’accès et de surveillance nécessaires pour les protéger et protéger l’entreprise contre les abus.

Bloquez les modèles d’IA

Les capacités d’IA ont la promesse d’ouvrir l’efficacité et la productivité, mais également le potentiel d’être retournées contre les organisations. Introduire l’IA dans tous les aspects des opérations commerciales n’est plus un « agréable à avoir » – c’est une exigence pour réussir dans le paysage concurrentiel d’aujourd’hui. Par conséquent, déployer de manière sécurisée l’IA est un composant nécessaire pour réaliser en toute sécurité le plein potentiel commercial et les résultats.

Le passage à la défense cybernétique alimentée par l’IA est en cours, tandis que les modèles d’IA eux-mêmes sont devenus des cibles. Les adversaires peuvent essayer d’empoisonner les données qui alimentent ces modèles et les manipuler pour qu’ils prennent des actions non intentionnelles ou même divulguent des informations sensibles.

Les attaques adverses contre l’IA peuvent prendre différentes formes, telles que des attaques d’empoisonnement, des attaques d’injection de invites, et d’autres. Pour protéger correctement l’IA contre les manipulations potentielles, les organisations devraient utiliser la philosophie de l’Agence de cybersécurité et d’infrastructure (CISA) de Conception sécurisée. Cela commence avec les données qui alimentent la formation du modèle. Verrouiller les entrées tôt dans le processus de développement pose les fondements pour des sorties fiables lors du déploiement.

Comprendre les entrées qui vont dans le développement des modèles et des capacités est possible grâce à une gouvernance des données intentionnelle ainsi que le contrôle de l’accès aux modèles eux-mêmes. Les contrôles critiques qui permettent de valider les sorties souhaitées prennent la forme d’une prévention de perte de données (DLP) ; d’une application de politiques et de sécurité ; d’un ancrage via des sources vérifiables ; et de contrôles d’approbation stricts pour les actions à forte incidence, de traçabilité, et de tests continus, y compris des tests de pénétration de modèles pour les durcir.

Intégrez l’IA dans les opérations de sécurité

Jusqu’à présent, l’application de l’IA à la défense cybernétique a été tactique, avec de nombreuses organisations qui ajoutent l’IA à des processus humains centrés sur l’héritage, plutôt que de repenser stratégiquement la manière de construire des processus centrés sur l’IA. C’est comme essayer de mettre un moteur V8 sur un vélo. La prochaine évolution de l’activation de l’IA sera de concevoir des processus à partir de zéro, avec l’IA agente et l’automatisation native dans la conception. Les méthodes et processus de sécurité opérationnelle éprouvés, tels que la détection de menaces, la chasse aux menaces et l’ingénierie de détection, sont toujours les éléments critiques qui sont impératifs pour la sécurité de l’organisation à l’ère de l’IA. La transformation des processus de sécurité actuels pour permettre l’augmentation de l’IA peut poser une solide fondation pour le futur centre des opérations de sécurité (SOC) alimenté par l’IA.

De plus, l’automatisation n’est pas un concept nouveau unique à l’émergence de l’IA ; les flux de travail et les processus de sécurité ont été automatisés depuis des années, avec des organisations matures ayant des capacités d’orchestration et d’automatisation très sophistiquées. Cependant, l’IA améliore l’automatisation basée sur des règles existante et l’évolue davantage, permettant des flux de travail automatisés dynamiques, adaptables, riches en contexte qui peuvent aider à répondre à la vitesse et à l’agilité requises pour ces risques émergents de l’IA.

Qu’est-ce qui vient ensuite ?

La sécurité doit continuer à être au premier plan pour les entreprises et l’informatique pour garder leurs actifs et utilisateurs critiques en sécurité contre l’exploitation malveillante. L’IA sécurisée par conception est une nécessité compte tenu de la vitesse à laquelle les modèles d’IA peuvent être déployés et invités à effectuer des activités plus critiques. Les équipes de cybersécurité devraient penser stratégiquement à transformer les processus à partir de zéro pour mettre en œuvre correctement les nouvelles capacités d’IA pour suivre le rythme dans le jeu de chat et de souris cybernétique.

Les dirigeants de la sécurité peuvent prendre plusieurs mesures concrètes à court terme : effectuer un examen complet des processus de sécurité actuels pour identifier les lacunes, les opportunités de modernisation et les domaines prêts à être transformés. Restez au courant des menaces, des tendances et des technologies émergentes de l’IA. Par-dessus tout, restez ancrés sur le principe de sécurité fondamental de la défense en profondeur qui s’est avéré efficace au fil du temps – une protection et une validation en couches de l’identité, du point de terminaison, du réseau, des données, avec des capacités de surveillance et de réponse robustes qui sont toujours testées.

Le potentiel de transformation de l’IA promet un avantage trop important pour en refuser l’adoption, et le génie est sorti de la bouteille pour les acteurs de menaces. Par conséquent, le rôle des dirigeants de la sécurité dans cette prochaine ère est le même qu’il l’a toujours été : soutenir vos organisations pour atteindre leurs objectifs commerciaux avec une mitigation des risques réfléchie – mais maintenant à la vitesse de la machine avec l’utilisation de l’IA.

Kevin Urbanowicz est un principal chez Deloitte & Touche LLP et sert en tant que leader des opérations de sécurité informatique de Deloitte aux États-Unis.

Mark Nicholson is a principal at Deloitte & Touche LLP and serves as Deloitte’s US Cyber AI leader.