Connect with us

Pourquoi une confiance aveugle en l’IA pourrait être votre pire décision

Leaders d’opinion

Pourquoi une confiance aveugle en l’IA pourrait être votre pire décision

mm

En 1979, un manuel de formation IBM a fait une mise en garde simple mais frappante : « Un ordinateur ne peut jamais être tenu responsable ; par conséquent, un ordinateur ne doit jamais prendre une décision de gestion. » Et plus de 45 ans plus tard, cette déclaration ressemble à une prophétie ignorée.

En 2025, l’IA ne se contente pas d’assister ; elle prend des décisions autonomes, et dans de nombreux cas, elle ne décide pas seulement, mais mène. En fait, autour de 74% des dirigeants ont plus confiance en l’IA pour les conseils commerciaux que dans leurs collègues ou amis, 38% font confiance à l’IA pour prendre des décisions commerciales pour eux, et 44% préfèrent la raison de la technologie à leurs propres idées. Le changement est clair ; l’IA est la nouvelle intuition.

Mais il y a un problème. La confiance en l’IA n’est possible que si l’algorithme est digne de confiance. Et lorsque la confiance est accordée aveuglément, en particulier dans les boîtes noires que nous ne pouvons pas comprendre ou auditer, c’est un risque déguisé en progrès. Comme dans le leadership humain, la confiance sans responsabilité est dangereuse, et lorsque l’IA se trompe, qui assume la responsabilité ?

Lorsque l’outil devient le patron

Ce qui a commencé comme un outil pour rationaliser les opérations de back-office est maintenant utilisé dans les processus commerciaux essentiels. Mais les entreprises n’utilisent pas seulement l’IA pour soutenir les décisions humaines ; elles font maintenant confiance à l’IA, en particulier à l’IA générative (GenAI), pour prendre des décisions commerciales, de la stratégie commerciale au service client, à la modélisation financière et plus encore.

Ce changement est compréhensible. L’IA ne se distrait pas, n’oublie pas les instructions ou ne laisse pas les émotions obscurcir son jugement. Pour de nombreuses entreprises, cela offre un antidote séduisant aux risques d’erreur humaine. Cependant, une question clé demeure : pouvons-nous faire confiance à l’IA pour être le patron et prendre des décisions de manière indépendante ?

Ce n’est pas une réponse simple, mais une façon de le considérer est de juger la fiabilité des personnes : par leur compétence, leur fiabilité et leur intention claire. Les mêmes principes s’appliquent à l’IA.

Pour être digne de confiance, un système d’IA doit fournir des résultats qui sont précis, opportuns et appropriés. Mais le niveau de confiance et la marge d’erreur varient en fonction du contexte. Par exemple, lors du diagnostic d’un cancer à partir d’images médicales, la barre de l’échec est extrêmement basse. À l’inverse, lors de la génération d’idées pour une campagne de marketing, il y a plus de place pour l’expérimentation.

Nous avons vu l’IA utilisée pour prendre des décisions autonomes dans des domaines tels que les approbations de crédit, les banques utilisant des algorithmes pour déterminer l’éligibilité au crédit en quelques secondes. Les détaillants utilisent l’IA pour gérer les stocks et les prix sans intervention humaine. Mais nous avons également vu des échecs – comme les voitures autonomes qui mal évaluent les conditions routières.

Un récit de mise en garde montre les risques de faire confiance à l’IA sans surveillance adéquate. Derek Mobley – un homme noir de plus de 40 ans – a postulé pour plus de 100 postes via le système de recrutement basé sur l’IA de Workday depuis 2017 et a été rejeté à chaque fois. Il a allégué une discrimination fondée sur l’âge et la race. En mai 2025, le tribunal a accordé une action collective nationale. La classe comprend tous les candidats âgés de 40 ans et plus qui ont postulé via Workday depuis septembre 2020 et qui ont été rejetés sur la base de recommandations basées sur l’IA.

Cet exemple souligne un point important : l’IA manque d’intelligence émotionnelle, de raisonnement moral ou de sens naturel de l’équité. Et puisque l’IA passe d’un assistant humain à un décideur indépendant, il y a maintenant un vide de responsabilité. Lorsque les algorithmes sont autorisés à fonctionner sans contrôles humains, ils peuvent et font de mauvaises décisions et renforcent les préjugés existants.

La question autour des boîtes noires

Les boîtes noires – lorsque le système et la logique d’une IA ne sont pas entièrement visibles – sont de plus en plus courantes. Bien qu’elles puissent avoir des couches visibles, les développeurs et les utilisateurs ne peuvent toujours pas voir ce qui se passe à chaque couche, les rendant opaques.

Par exemple, ChatGPT est une boîte noire, car même ses créateurs sont incertains de la façon dont cela fonctionne, car il est formé sur de très grands ensembles de données. Mais en raison du manque de transparence, est-il jamais acceptable de « faire confiance » à un modèle d’IA sans comprendre pleinement son fonctionnement ?

En bref, non : les hallucinations de l’IA s’aggravent. Cela signifie que dans des scénarios à haut risque, comme les décisions financières, les conseils juridiques et les idées médicales, l’IA exige une validation rigoureuse, une cross-référence et une surveillance humaine.

Le procès intenté par Disney et Universal déposé en juin 2025 renforce ce point. Les studios allèguent que les outils GenAI ont été formés sur des matériaux protégés par le droit d’auteur pour créer du contenu nouveau sans consentement. Cet affaire met en évidence une nouvelle réalité : lorsque les entreprises déployer des modèles d’IA qu’elles ne comprennent pas pleinement, elles peuvent être tenues responsables des décisions prises. Et l’ignorance n’est pas une défense ; c’est une responsabilité.

Cependant, nous faisons souvent confiance à des systèmes complexes que nous ne comprenons pas. Par exemple, la plupart des passagers aériens ne peuvent pas expliquer la physique du vol, mais les gens montent dans les avions avec confiance parce que nous avons construit la confiance à travers une exposition répétée, une expérience collective et un bilan solide de sécurité.

La même logique peut s’appliquer à nouveau à l’IA. Il est irrationnel d’attendre de chacun qu’il comprenne comment fonctionnent réellement les LLM. Mais la confiance n’est pas construite sur la compréhension ; elle nécessite de la familiarité, de la transparence sur les limites et un modèle de performance fiable. Les ingénieurs aérospatiaux savent quels tests mettre en place et à quoi ressemblent les erreurs, et nous devons exiger la même chose des fournisseurs de GenAI. Le principe fondamental de l’IA devrait être la confiance, mais vérifier.

De plus, les dirigeants d’entreprise pensent souvent que l’IA sera la solution miracle qui résoudra tous leurs problèmes commerciaux. Cependant, ce mythe hante de nombreuses entreprises lors de l’intégration de l’IA. Les dirigeants préfèrent peut-être des modèles complexes et sophistiqués, mais une solution plus simple pourrait être mieux adaptée s’ils effectuaient une analyse coûts-avantages. L’IA est un instrument puissant, mais il n’est pas approprié pour chaque tâche. Les entreprises doivent reconnaître le problème avant de sélectionner un outil.

Reconstruire la confiance en l’IA

Bien qu’il soit clair que faire confiance à l’IA aveuglément est un problème, les systèmes et les algorithmes d’IA peuvent être l’outil le plus puissant qu’une entreprise possède – lorsqu’ils sont utilisés en toute sécurité.

Pour les entreprises qui souhaitent exploiter les outils d’IA, la première chose à rechercher est la diligence raisonnable du fournisseur. Lorsqu’une entreprise a identifié un domaine qui pourrait bénéficier de l’efficacité de l’IA, les dirigeants d’entreprise doivent évaluer les fournisseurs non seulement sur les allégations de performance, mais également sur les contrôles de gouvernance. Cela inclut l’examen de la façon dont les modèles sont développés, si des outils d’explication sont en place, comment les préjugés sont surveillés et si des traces d’audit sont disponibles. Choisir un fournisseur avec des processus transparents est essentiel pour atténuer les risques dès le départ.

Peut-être le point le plus important lors de la construction de la confiance dans les systèmes d’IA est de garantir la gouvernance des données avec des ensembles de données propres, représentatifs et bien documentés. Comme on le dit : les données de mauvaise qualité entraînent des résultats de mauvaise qualité. Par conséquent, si les données sont incomplètes, biaisées ou inexactes, même le modèle le plus avancé produira des résultats peu fiables.

Pour garantir que les données sont prêtes pour l’IA, les entreprises doivent :

  • Auditer les ensembles de données existants pour les lacunes et les doublons, et vérifier les sources de biais

  • Standardiser les formats de données

  • Mettre en œuvre des politiques de gouvernance des données qui définissent la propriété et les contrôles d’accès

Une autre étape clé pour les dirigeants d’entreprise est de tester sous différentes conditions. Bien qu’un modèle puisse bien fonctionner dans des tests contrôlés, il est crucial de comprendre les limites du modèle lorsqu’il est confronté à de nouvelles données ou à des entrées qu’il n’a pas prévues. C’est pourquoi il est important de tester l’IA dans une variété de situations, avec différents types d’utilisateurs, divers cas d’utilisation et des données provenant de différentes périodes.

La validation de l’IA est également une tâche continue. À mesure que les données changent au fil du temps, même les modèles d’IA fiables peuvent perdre leur précision. C’est pourquoi la surveillance régulière est importante. Les entreprises doivent surveiller la façon dont le modèle se comporte au jour le jour : est-il toujours précis ? Ou les faux positifs augmentent-ils ? Et tout comme n’importe quel système qui nécessite une maintenance, les modèles doivent être réentraînés régulièrement avec des données fraîches pour rester pertinents.

L’IA n’est pas digne de confiance ou indigne de confiance ; elle est façonnée par les données qu’elle apprend, les personnes qui la créent et les règles qui la régissent. À mesure que l’IA se développe d’un outil utile à un conseiller commercial, les dirigeants ont la possibilité non seulement de l’utiliser, mais de le faire de manière réfléchie et éthique. Si nous faisons cela correctement, l’IA ne sera pas seulement puissante dans le futur, mais également responsable, avec une responsabilité clairement attribuée à son développeur et à ses superviseurs.

Martin Lewit est le SVP (Senior Vice President) de Nisum, un partenaire de conseil mondial spécialisé dans le commerce numérique et l'évolution qui construit des plateformes alimentées par l'IA et des solutions sur mesure qui débloquent la croissance, optimisent les opérations et créent une valeur à long terme.

Avec une grande expérience dans la résolution de défis commerciaux complexes avec des solutions innovantes, les intérêts de Martin incluent le développement et la formation de ceux qui travaillent avec lui et la création de connections qui créent de nouvelles et excitantes opportunités, en fournissant un leadership efficace, une vision stratégique et un focus quotidien sur la construction d'une culture innovante, sous la devise de l'entreprise "Bâtir le succès ensemble".