Des leaders d'opinion
Comment l'IA explicable renforce la confiance et la responsabilité

Les entreprises se sont déjà lancées tête baissée dans l’adoption de l’IA, se précipitant pour déployer des chatbots, des générateurs de contenu et des outils d’aide à la décision dans l’ensemble de leurs opérations. Selon McKinsey78 % des entreprises utilisent l’IA dans au moins une fonction commerciale.
La frénésie de mise en œuvre est compréhensible : chacun perçoit la valeur potentielle. Mais dans cette précipitation, de nombreuses organisations oublient que toutes les technologies basées sur les réseaux neuronaux, y compris tous les LLM et systèmes d'IA générative utilisés aujourd'hui et dans un avenir proche, partagent un défaut majeur : elles sont imprévisibles et, en fin de compte, incontrôlables.
Comme certains l'ont constaté, les conséquences peuvent être graves. Chez un concessionnaire Chevrolet qui avait déployé un chatbot sur son site web, un Le client a convaincu le bot ChatGPT de lui vendre un Chevy Tahoe à 58,195 1 $ pour seulement XNUMX $Un autre client a demandé au même chatbot d'écrire un script Python pour des équations complexes de dynamique des fluides, ce qu'il a fait avec plaisir. Le concessionnaire a rapidement désactivé les robots après la diffusion virale de ces incidents.
L'année dernière, Air Canada a perdu devant la Cour des petites créances lorsqu'elle a fait valoir que son chatbot, qui a donné à un passager des informations inexactes sur une réduction pour deuil, « est une entité juridique distincte qui est responsable de ses propres actes ».
Cette imprévisibilité découle de l'architecture fondamentale des LLM. Leur ampleur et leur complexité rendent impossible de comprendre comment ils parviennent à des réponses précises ou de prédire ce qu'ils généreront avant de produire un résultat. La plupart des organisations réagissent à ce problème de fiabilité sans en avoir pleinement conscience.
La solution la plus logique consiste à vérifier manuellement les résultats de l'IA, ce qui fonctionne, mais limite considérablement le potentiel de la technologie. Lorsque l'IA est réduite au rôle d'assistant personnel – rédaction de textes, comptes rendus de réunions, synthèse de documents et aide au codage –, elle n'apporte que des gains de productivité modestes. Insuffisants pour révolutionner l'économie.
Les véritables bénéfices de l'IA apparaîtront lorsque nous cesserons de l'utiliser pour faciliter les tâches existantes et que nous repenserons des processus, des systèmes et des entreprises entiers pour utiliser l'IA sans intervention humaine à chaque étape. Prenons l'exemple du traitement des prêts : si une banque met à la disposition de ses agents de crédit un assistant IA pour synthétiser les demandes, ils pourraient travailler 20 à 30 % plus vite. Mais déployer l'IA pour gérer l'ensemble du processus décisionnel (avec les garanties appropriées) pourrait réduire les coûts de plus de 90 % et éliminer la quasi-totalité du temps de traitement. C'est toute la différence entre amélioration progressive et transformation.
Le chemin vers une mise en œuvre fiable de l'IA
Exploiter tout le potentiel de l'IA sans succomber à son imprévisibilité nécessite un mélange sophistiqué d'approches techniques et de réflexion stratégique. Si plusieurs méthodes actuelles offrent des solutions partielles, chacune présente des limites importantes.
Certaines organisations tentent d’atténuer les problèmes de fiabilité en orientant subtilement le comportement de l’IA dans la direction souhaitée afin qu’elle réponde de manière spécifique à certaines entrées. Les chercheurs anthropiques ont démontré la fragilité Cette approche a permis d'identifier une « caractéristique du Golden Gate Bridge » dans le réseau neuronal de Claude et, en l'amplifiant artificiellement, de provoquer une crise d'identité chez Claude. Interrogé sur sa forme physique, au lieu de reconnaître qu'elle n'en avait aucune, Claude a affirmé be Le Golden Gate Bridge lui-même. Cette expérience a révélé avec quelle facilité le fonctionnement d'un modèle peut être modifié et que chaque changement représente un compromis, améliorant potentiellement un aspect des performances tout en en dégradant d'autres.
Une autre approche consiste à faire surveiller d'autres IA par l'IA. Si cette approche multicouche permet de détecter certaines erreurs, elle introduit une complexité supplémentaire et ne garantit pas une fiabilité totale. Les garde-fous codés en dur constituent une intervention plus directe, comme le blocage des réponses contenant certains mots-clés ou modèles, comme les ingrédients précurseurs d'armes. Bien qu'efficaces contre les problèmes connus, ces garde-fous ne peuvent pas anticiper les nouveaux résultats problématiques issus de ces systèmes complexes.
Une approche plus efficace consiste à créer des processus centrés sur l'IA, fonctionnant de manière autonome, avec une supervision humaine stratégiquement positionnée pour détecter les problèmes de fiabilité avant qu'ils ne causent des problèmes concrets. Il ne faudrait pas que l'IA approuve ou refuse directement les demandes de prêt, mais elle pourrait effectuer une évaluation initiale que des opérateurs humains examineraient. Cette approche peut fonctionner, mais elle repose sur la vigilance humaine pour détecter les erreurs de l'IA et compromet les gains d'efficacité potentiels liés à son utilisation.
Construire pour l'avenir
Ces solutions partielles laissent entrevoir une approche plus globale. Les organisations qui repensent fondamentalement leurs méthodes de travail plutôt que de simplement enrichir leurs processus existants avec l'aide de l'IA en tireront le meilleur parti. Mais l'IA ne devrait jamais être la dernière étape d'un processus ou d'une décision à enjeux élevés. Quelle est donc la meilleure voie à suivre ?
Premièrement, l'IA construit un processus reproductible qui produira des résultats cohérents, fiables et transparents. Deuxièmement, des humains examinent le processus pour s'assurer qu'ils en comprennent le fonctionnement et que les données saisies sont appropriées. Enfin, le processus fonctionne de manière autonome, sans IA, avec une révision humaine périodique des résultats.
Prenons l'exemple du secteur des assurances. L'approche conventionnelle pourrait intégrer des assistants IA pour optimiser l'efficacité des gestionnaires de sinistres. Une approche plus révolutionnaire utiliserait l'IA pour développer de nouveaux outils, comme la vision par ordinateur qui analyse les photos des dommages ou des modèles de détection de fraude améliorés qui identifient les tendances suspectes, puis combinerait ces outils dans des systèmes automatisés régis par des règles claires et compréhensibles. Des humains concevraient et surveilleraient ces systèmes plutôt que de traiter les sinistres individuellement.
Cette approche maintient la surveillance humaine au moment crucial où elle est la plus importante : la conception et la validation du système lui-même. Elle permet des gains d'efficacité exponentiels tout en éliminant le risque que l'imprévisibilité de l'IA entraîne des conséquences néfastes dans certains cas.
Une IA pourrait par exemple identifier des indicateurs potentiels de la capacité de remboursement d'un prêt dans les données de transaction. Des experts humains pourraient ensuite évaluer l'équité de ces indicateurs et élaborer des modèles explicites et compréhensibles pour confirmer leur pouvoir prédictif.
Cette approche de l'IA explicable creusera un fossé plus net entre les organisations qui utilisent l'IA de manière superficielle et celles qui transforment leurs opérations autour d'elle. Ces dernières prendront de plus en plus d'avance dans leurs secteurs, capables de proposer des produits et services à des prix que leurs concurrents ne peuvent égaler.
Contrairement à l’IA de type boîte noire, les systèmes d’IA explicables garantissent que les humains conservent une surveillance significative de l’application de la technologie, créant ainsi un avenir où l’IA augmente le potentiel humain plutôt que de simplement remplacer le travail humain.












