Leaders d’opinion
Si un bot peut flirter avec des enfants, qu’autre chose est-il autorisé à faire avec vos données ?

Lorsque des directives internes divulguées ont révélé que Meta permettait à ses chatbots IA de flirter avec des enfants, la plupart des gens l’ont traité comme un scandale et sont passés à autre chose. Mais il vaut la peine de prendre un regard plus approfondi sur ce que l’enquête nous apprend sur l’état actuel de l’éthique de l’IA : Si une entreprise comme Meta cautionne de telles politiques à son échelle, qu’autre chose ces plateformes autorisent-elles en silence ? Et combien de cela implique vos données ?
Les dirigeants d’entreprise ont tendance à évaluer les outils IA en fonction de ce qu’ils peuvent faire, à quelle vitesse et à quel coût. Mais il y a des questions plus difficiles à poser, surtout à mesure que les outils IA deviennent rapidement essentiels : Quels sont les termes auxquels vous vous engagez lorsque vos équipes commencent à utiliser des outils IA ? Que font les fournisseurs de modèles et les constructeurs d’agents avec vos données ? Et qui assume la responsabilité lorsque quelque chose se passe mal ?
La plupart des organisations sont tellement absorbées par la recherche de moyens pour tirer le maximum d’argent de cette nouvelle technologie qu’elles n’ont pas encore pris le temps de considérer la question la plus importante :
Qu’est-ce qui arrive réellement à vos données ?
La plupart des gens surestiment considérablement le risque de partager quelque chose avec un chatbot ou rejettent complètement l’affaire. Le fait est que les grands modèles de langage sont, en un certain sens, figés une fois formés et mis à la disposition du public. Cela signifie que vos conversations sont stockées séparément, et non instantanément intégrées dans la mémoire du système ; ce que vous avez dit à ChatGPT ce matin n’informe pas immédiatement ce que le modèle dirait à quelqu’un d’autre l’après-midi.
Cela ne signifie pas que vos données ne sont pas utilisées. Elles le sont. Le chemin est simplement plus compliqué.
Les journaux de conversation sont stockés séparément, et de nombreux laboratoires d’IA se réservent explicitement le droit de les utiliser pour former la prochaine version de leur modèle. C’est juste dans les conditions d’utilisation. Ce qui entre aujourd’hui comme une requête de support client ou une réflexion stratégique peut, avec le temps, influencer un modèle que des millions de personnes utiliseront demain.
Le risque pour les données propriétaires va au-delà de la politique. En 2025, Scale AI a involontairement exposé des milliers de pages de matériaux de projet confidentiels de clients, notamment Meta, Google et xAI. Séparément, une faille de sécurité en novembre d’un fournisseur d’OpenAI a conduit des hackers à s’emparer de données client, notamment des noms, des adresses e-mail et des détails de système.
Pour être clair, ce n’est pas une situation à cinq alarmes, mais ce n’est pas non plus sans risque. Les systèmes de niveau entreprise disposent de garde-fous contractuels autour de la réutilisation des données. Les outils grand public ne le font pas. Si vos données sont si sensibles que vous voudriez un accord de non-divulgation pour les protéger, vous ne devriez pas les confier à un chatbot grand public et supposer qu’elles ne seront pas utilisées ailleurs.
Les chiffres suggèrent que la plupart des organisations n’ont pas encore compris cela. Près de huit employés sur dix ont collé des informations d’entreprise dans des outils IA, et parmi eux, plus de quatre sur cinq l’ont fait en utilisant leurs comptes personnels, selon une enquête sur la main-d’œuvre de 2025. Un entreprise sur cinq a déjà signalé une faille de sécurité liée à l’utilisation d’IA fantôme, et seulement 37 pour cent ont des politiques en place pour détecter ou gérer cela, selon le rapport 2025 de IBM sur le coût d’une faille de sécurité.
Une fois compris, ce type de risque de données n’est pas difficile à contourner. Faites la distinction entre les outils grand public et les outils d’entreprise, sachez à quoi vous vous engagez, et vous aurez couvert la plupart de vos bases.
Où la communication médiatisée par l’IA échoue pour les entreprises
Que se passe-t-il avec vos données est une partie du tableau. L’autre, et pour de nombreuses entreprises la plus conséquente, est ce que ces systèmes font à la qualité et à la responsabilité de vos communications les plus importantes.
Pensez aux conversations qui font bouger les entreprises : des réunions pour conserver des clients de longue date ; une négociation commerciale où le ton et la confiance sont presque plus importants que le langage de l’accord ; ou une présentation trimestrielle au conseil d’administration sur vos progrès vers les jalons de l’année. Il s’avère que l’IA peut gérer les éléments transactionnels de ces interactions de manière raisonnable, comme prendre des notes de réunion, attribuer des priorités et mettre en évidence les points d’action. Elle a du mal avec tout ce qui se trouve en dessous.
Les modes de défaillance spécifiques valent la peine d’être nommés. L’IA comprime le contexte ; elle résume, lisse et standardise de manière à éliminer la nuance. De plus, le contenu généré par les grands modèles de langage est difficile à vérifier. Les personnes à qui vous avez envoyé un e-mail généré par l’IA ou des notes de réunion résumées n’ont aucun moyen de confirmer que ce qu’ils ont reçu reflète ce que vous vouliez dire, ou que le message n’a pas été filtré ou reformulé par l’IA.
Cela ne signifie pas que l’IA n’a pas sa place dans la communication d’entreprise. Elle l’a clairement. Mais il y a une catégorie de conversation où les gains d’efficacité ne justifient pas l’exposition, et la plupart des organisations n’ont pas suffisamment réfléchi à la différenciation de ces cas d’utilisation.
Sachez quand le faire vous-même
La question devient donc : Pour vos communications les plus sensibles, l’IA devrait-elle être dans la boucle du tout ?
Ma réponse honnête est non, du moins pas sans une personne qui puisse être tenue responsable de ce qui a été dit, de la façon dont cela a été dit et de si le message a été livré. La vérification de la communication humaine n’est pas une préférence pour la vieille façon de faire les choses ; c’est juste une reconnaissance que certaines conversations nécessitent une personne pour les soutenir.
Les dirigeants devraient faire leurs devoirs. Qu’est-ce que la politique de données du fournisseur dit sur la réutilisation ? Que se passe-t-il avec les journaux de conversation de votre équipe lorsque le contrat se termine ? Ce ne sont pas des questions pour que votre équipe IT les résolve en arrière-plan. Ce sont des questions d’approvisionnement, et elles appartiennent plus tôt dans le processus qu’actuellement.
Le bot qui a été autorisé à flirter avec des enfants n’a pas pris cette décision tout seul. Quelqu’un l’a approuvée. Chaque système d’IA reflète le jugement des personnes qui l’ont construit et déployé, et ces appels ne sont pas toujours évidents de l’extérieur.
Jusqu’à ce que les outils pour auditer les outils et les systèmes d’IA rattrapent leur adoption, la position la plus défendable que les dirigeants d’entreprise peuvent prendre est de tracer la ligne entre les conversations pour lesquelles ils sont à l’aise de les router via l’IA et celles pour lesquelles ils ne le sont pas.
L’argument d’efficacité pour l’IA est convaincant. Il l’est aussi pour posséder ce qui sort en votre nom.












