Connect with us

Le Danger du Non à l’IA

Leaders d’opinion

Le Danger du Non à l’IA

mm

J’ai participé à un appel avec une société cliente potentielle la semaine dernière. Tous les responsables de la sécurité et du réseau étaient présents, ainsi que la direction. Différents présentateurs ont abordé les sujets du moment. Puis quelqu’un a commencé à expliquer comment ses équipes techniques utilisent l’IA dans leur travail quotidien.

Le présentateur était enthousiaste. Il avait trouvé un moyen de compresser trois jours de travail manuel de copier-coller en quelques minutes à l’aide d’outils d’IA. Super cool, n’est-ce pas ? Je comprends ce qu’il faisait – et pourquoi il le faisait. C’est la promesse de l’IA !

Mais en tant que responsable de la sécurité dans la salle, je pense : “Oh mon dieu.” “Quel outil est-ce ? Qui possède cet outil ?” Parce qu’il met des informations client dans ces plateformes – des données de tarification. Peut-être des informations financières ? Quoi que ce soit. Tout pour accélérer son flux de travail.

Alors, j’ai posé la question évidente : “Avez-vous une politique d’IA ?” Nous avons cherché. Trouvé un court paragraphe enfoui dans les conditions d’utilisation acceptables. Quelque chose de vague sur les outils d’IA. Est-ce que quelqu’un lit vraiment cela ? Probablement pas. Vous le signez lors de l’intégration, et vous avez terminé.

Vos Employés Utilisent Déjà l’IA

Voici ce que j’ai appris en discutant avec des entreprises de tous les secteurs : l’IA est déjà partout, que vous le reconnaissiez ou non. Des recherches récentes confirment cette réalité – 75% des travailleurs utilisent maintenant l’IA au travail, presque doublé en six mois seulement.

La semaine dernière à Houston, j’ai rencontré un homme dont l’entreprise fore pour le pétrole. Ils ont une plateforme d’IA qui analyse la composition du sol et les modèles météorologiques pour optimiser les emplacements de forage. Il m’a expliqué comment ils prennent en compte les données de pluie – “Nous savions qu’il pleuvait 18 jours de plus que dans cette zone, donc la capacité pétrolière est probablement plus élevée, ce qui permet aux foreuses de pénétrer plus profondément.”

Pendant ce temps, j’utilise l’IA pour créer un itinéraire pour l’Allemagne. J’ai discuté avec des entreprises de soins de santé qui l’utilisent pour des plateformes de télésoins. Des équipes financières exécutent des modèles de risque. J’ai même rencontré quelqu’un qui dirige un commerce de limonade qui utilise l’IA d’une manière ou d’une autre.

Le point est : l’IA est dans toutes les industries, tous les flux de travail. Elle n’arrive pas – elle est là. Et la plupart de ces organisations sont dans le même bateau que nous. Ils savent que leurs employés l’utilisent. Ils ne savent simplement pas comment la gérer.

Le Shadow IT Devient Dangereux Très Vite

Saviez-vous ce qui se passe lorsque vous dites aux gens qu’ils ne peuvent pas utiliser l’IA ? C’est exactement comme dire à votre adolescent de ne jamais boire. Félicitations, maintenant ils seront ceux qui boivent de manière la plus dangereuse, car vous avez créé une interdiction.

Les chiffres prouvent cette réalité : 72% de l’utilisation de l’IA générative dans les entreprises est du Shadow IT, les employés utilisant des comptes personnels pour accéder à des applications d’IA.

Les gens prennent un deuxième ordinateur portable. Ils utilisent leur téléphone personnel qui n’est pas protégé par la sécurité de l’entreprise. Puis ils utilisent l’IA quand même. Soudain, vous perdez la visibilité et créez les lacunes exactes que vous essayiez de prévenir.

J’ai vu ce schéma auparavant. Les équipes de sécurité qui disent “non” à tout finissent par pousser les gens dans la clandestinité – et perdent toute surveillance de ce qui se passe réellement.

La Sécurité Devient l’Ennemi

Il y a cette perception que les équipes de sécurité sont “les méchants du sous-sol”. Les gens pensent : “Oh, la sécurité va probablement dire non de toute façon, alors laissez tomber ces gars. Je vais le faire quand même.”

Nous avons créé cette méconception. Et avec l’IA, les gens sont biaisés pour supposer que nous allons les arrêter, donc ils ne nous demandent même pas. Cela tue la communication que vous voulez réellement.

J’ai eu un développeur qui est venu me voir après une présentation de conférence. Il utilise des API tous les jours et essayait d’attirer l’attention de son équipe de sécurité sur les tests et la validation. Mais il avait décidé de ne pas demander parce qu’il pensait qu’ils diraient simplement non.

Le Déficit de Confiance Vous Coûte Tout

Voici la conversation que vous voulez : quelqu’un du marketing vient vous voir et dit : “Hé, je veux utiliser cet outil d’IA. Quelle est notre position à ce sujet ? Comment puis-je l’utiliser en toute sécurité ?” C’est la bonne façon de collaborer avec la sécurité.

Nous allons vérifier. Nous comprenons que l’IA va faire partie de l’entreprise. Nous n’allons pas dire non – nous voulons que les gens l’utilisent en toute sécurité. Mais nous avons besoin de cette conversation d’abord.

Lorsque les gens supposent que la sécurité va bloquer tout, ils arrêtent de demander. Ils s’inscrivent avec des adresses e-mail personnelles, commencent à alimenter les données de l’entreprise dans des plateformes non vérifiées, et vous perdez toute visibilité et contrôle. Le résultat est prévisible : 38% des employés partagent des informations de travail sensibles avec des outils d’IA sans l’autorisation de leur employeur.

Les organisations vont utiliser l’IA quoi qu’il arrive. La question est : comment nous assurer que nos employés puissent l’utiliser en toute sécurité sans mettre en danger les données de l’entreprise, la vie privée ou la sécurité ?

Commencez par des Oui Intelligents, Pas par des Non Catégoriques

Voici ce qui fonctionne réellement : la communication proactive. Envoyez des newsletters ou organisez des webinaires de 30 minutes en disant : “Nous autorisons l’IA au sein de l’organisation. Voici comment l’utiliser en toute sécurité.” Enregistrez les sessions pour les personnes qui les manquent.

Montrez des exemples d’employés qui ont collaboré avec la sécurité avec succès. Rendez ces partenariats visibles au lieu d’être une entité obscure que les gens supposent arrêter.

Vous devez construire la confiance au fil du temps entre la sécurité et les employés. À la fin de la journée, nous utilisons tous l’IA de manière importante ou non. J’ai utilisé l’IA pour planifier mon voyage en Allemagne – je lui ai dit de créer un itinéraire de trois jours et j’ai obtenu un voyage incroyable.

Du point de vue de l’organisation, nous devons reconnaître où se situe l’IA dans l’entreprise. Va-t-elle augmenter les revenus ? Probablement. Le cas d’entreprise est clair : l’IA est passée de “expérimentation” à “essentiel”, avec une augmentation de 130% des dépenses d’entreprise. Alors, que faisons-nous ? Comment fournissons-nous une protection tout en permettant la productivité ?

L’objectif n’est pas un contrôle parfait, c’est impossible. L’objectif est une adoption éclairée de l’IA avec des garde-fous qui fonctionnent réellement dans la pratique. Le nouveau risque pour la sécurité est de se retrouver isolé de l’utilisation de l’IA – une utilisation qui se produit avec ou sans vous.

Pour les organisations qui veulent vraiment faire les choses correctement, les experts recommandent d’élaborer des politiques de gouvernance de l’IA claires qui équilibrent les besoins commerciaux avec les exigences de sécurité avant que l’utilisation de l’IA Shadow ne parte complètement hors de contrôle.

Jeremy Ventura est Field CISO chez l'intégrateur de systèmes mondial Myriad360, où il aide les organisations à naviguer dans des défis de sécurité complexes à travers le cloud, la sécurité des API et les technologies émergentes.