Suivez nous sur

Le problème de l'IA, ce n'est pas l'échec, c'est sa lenteur.

Des leaders d'opinion

Le problème de l'IA, ce n'est pas l'échec, c'est sa lenteur.

mm
Photographie conceptuelle montrant une main s'approchant d'une interface en verre transparent avec un indicateur de vitesse vert lumineux et une flèche pointant vers le haut. À l'arrière-plan, un enchevêtrement flou de fils noirs et de lumière rouge.

Le problème de l'IA, ce n'est pas l'échec, c'est sa lenteur.

L'intelligence artificielle (IA) transforme le fonctionnement, l'innovation et la croissance des organisations. Dans tous les secteurs, les entreprises utilisent l'IA pour optimiser leurs processus, gagner en efficacité et prendre des décisions plus rapides et plus éclairées. Devenue discrètement le moteur de la productivité moderne, l'IA permet aux organisations d'accroître leur agilité et leur envergure.

Cependant, malgré les nombreux avantages tangibles de l'IA, un phénomène inattendu se produit : de nombreuses entreprises se heurtent à un mur. Au lieu d'accélérer l'innovation, certaines équipes s'enlisent dans la complexité, la gestion des risques et une peur grandissante de l'inconnu.

Pourquoi ? Parce que nous abordons le problème de la mauvaise manière.

L'IA est trop souvent perçue à tort comme une technologie qui doit être totalement maîtrisée avant de pouvoir être considérée comme fiable. Cette perception erronée découle de la croyance fausse que la certitude est une condition sine qua non de la sécurité. Or, cette interprétation passe à côté de l'essence même de l'IA et de sa capacité à créer de la valeur. L'IA est un outil adaptatif conçu pour apprendre et évoluer avec l'usage. La traiter comme un logiciel traditionnel est une interprétation erronée de sa nature et compromet son potentiel.

Dans leur volonté d'exploiter l'IA de manière responsable, de nombreuses organisations ont, par inadvertance, transformé la gestion des risques en un frein. Tous secteurs confondus, les équipes hésitent à déployer l'IA tant qu'elles ne peuvent pas analyser, expliquer et justifier chaque étape de son processus décisionnel, souvent de manière excessive. Bien que ce niveau d'examen témoigne d'une diligence raisonnable bien intentionnée, il va souvent à l'encontre de l'objectif même de l'IA : accélérer la prise de décision, renforcer les équipes et résoudre les problèmes à grande échelle.

Il est temps de réajuster notre approche en abandonnant l'exigence d'un contrôle total au profit d'un modèle qui met l'accent sur la résilience, la productivité et l'explicabilité pratique, sans pour autant freiner l'innovation.

La peur de la boîte noire bloque les progrès

Les systèmes que nous ne comprenons pas pleinement suscitent naturellement une certaine méfiance, et les outils d'IA — en particulier les grands modèles génératifs — fonctionnent souvent de manière difficilement explicable. De ce fait, de nombreux dirigeants tombent dans le piège suivant : s'ils ne peuvent expliquer pleinement chaque décision de l'IA, ils ne peuvent lui faire confiance.

De ce fait, de nombreuses organisations complexifient excessivement leurs processus de supervision, multipliant les revues interfonctionnelles, les contrôles de conformité et les audits d'explicabilité, même pour les cas d'usage à faible risque. Lorsque les équipes perçoivent l'explicabilité comme la nécessité d'analyser chaque aspect du système, elles enferment la mise en œuvre de l'IA dans des cycles de revue interminables. Il en résulte une « paralysie opérationnelle » où les équipes, craignant de mal utiliser l'IA, cessent toute activité, entraînant une perte progressive de dynamisme, le blocage des initiatives et, au final, des opportunités manquées.

Le problème ne réside pas dans l'intention qui sous-tend les systèmes de contrôle, mais dans l'hypothèse selon laquelle la réduction des risques équivaut nécessairement au contrôle. En pratique, concevoir des systèmes d'IA axés sur la résilience plutôt que sur la perfection s'avère plus efficace. L'essentiel est d'abandonner une approche procédurale au profit d'une réflexion axée sur les résultats.

La résilience en IA implique d'accepter que des erreurs se produisent et de mettre en place des mécanismes de protection permettant de les détecter et d'y remédier. Il s'agit de passer d'une réflexion sur la prévention de toute défaillance potentielle à une réflexion sur la détection et l'intervention rapides en cas de dysfonctionnement.

La plupart des systèmes modernes sont conçus en partant du principe qu'un certain niveau d'erreur est inévitable. Par exemple, on ne s'attend pas à ce que les outils de cybersécurité soient infaillibles. 100% impénétrableIls ne sont pas conçus pour cela. Ils sont plutôt conçus pour détecter, réagir et mettre en place des protocoles de rétablissement rapide. Les mêmes exigences devraient s'appliquer à l'IA.

Exiger une visibilité complète sur chaque décision d'IA est irréalisable et peut même nuire à la création de valeur. Les organisations doivent plutôt privilégier une « explicabilité au niveau du tableau de bord » qui fournisse suffisamment de contexte et de supervision pour détecter les erreurs et mettre en place des mesures de protection sans pour autant freiner l'innovation au sein de l'entreprise.

Ne compliquez pas inutilement le déploiement de l'IA.

Les organisations devraient privilégier l'interopérabilité totale dans leurs implémentations d'IA, quel que soit le cas d'usage. Loin d'être un frein, l'interopérabilité totale garantit une intégration fluide et optimise la valeur ajoutée des systèmes. À l'avenir, il est probable que nous verrons, au sein des entreprises, des armées virtuelles d'agents d'IA collaborer à la réalisation d'objectifs communs.

Cette approche consiste à adapter l'explicabilité au niveau de risque, afin de ne plus traiter chaque cas d'usage de l'IA comme s'il s'agissait de la conduite d'un véhicule autonome. Les équipes peuvent y parvenir en concevant des systèmes d'IA productifs, responsables et alignés sur les intentions humaines, sans complexifier inutilement leur déploiement.

Voici quelques stratégies pratiques :

  • Déployer l'IA là où les humains rencontrent déjà des difficultés : Utilisez l'IA pour compléter la prise de décision humaine dans des domaines complexes et à fort volume comme l'allocation des ressources, la priorisation des tâches ou la gestion des arriérés, où la rapidité et l'échelle comptent plus que la certitude absolue.
  • Définir les indicateurs de réussite de l'IA : Au lieu de détailler chaque modèle, définissez les critères d'obtention de résultats satisfaisants. Les délais sont-ils améliorés ? Le nombre de reprises diminue-t-il ? Les utilisateurs acceptent-ils plus souvent les suggestions de l'IA ? Ces indicateurs permettent d'évaluer plus clairement l'efficacité de l'IA que de s'attarder sur les détails de son processus décisionnel.
  • Établissement des seuils de confiance : Définissez des seuils de tolérance pour l'acceptation automatique, le signalement ou l'envoi à un examen humain des résultats de l'IA, et mettez en place une boucle de rétroaction pour aider le système à apprendre et à s'améliorer au fil du temps.
  • Former les équipes à poser les bonnes questions : Plutôt que de faire de chaque équipe un expert en IA, concentrez-vous sur leur formation afin qu'ils posent les bonnes questions, telles que : quel problème l'IA est-elle utilisée pour résoudre, quels sont les risques les plus importants et comment l'efficacité sera-t-elle surveillée ?
  • Prioriser le raisonnement humain : Même les meilleurs systèmes d'IA ont besoin d'une supervision humaine. Mettez en place des processus permettant aux humains de valider, corriger ou annuler les décisions de l'IA afin de favoriser une responsabilité partagée.

Cette approche peut être comparée à la conduite automobile. La plupart d'entre nous ne comprenons pas le fonctionnement d'une transmission, la combustion du carburant qui permet l'accélération, ni comment les capteurs détectent les véhicules environnants, mais cela ne nous empêche pas de conduire. Nous nous fions au tableau de bord : une interface simplifiée qui nous fournit les informations nécessaires à une conduite sûre, comme la vitesse, le niveau de carburant et les alertes d'entretien.

Les systèmes d'IA devraient être gouvernés de la même manière. Inutile d'ouvrir le capot à chaque démarrage. Il suffit de disposer d'indicateurs clairs signalant les anomalies, les situations nécessitant une intervention humaine et les actions à entreprendre. Ce modèle permet aux organisations de se concentrer sur la supervision essentielle sans se noyer dans la complexité technique.

Arrête de te mettre des bâtons dans les roues.

L'IA ne sera jamais parfaite. Et si les organisations exigent d'elle un niveau de perfection qu'aucune équipe humaine ne pourrait atteindre, elles risquent de passer à côté de l'opportunité de repenser le travail, d'accélérer la prise de décision et de libérer le potentiel de l'ensemble de l'entreprise.

En privilégiant la résilience au contrôle, en adoptant une explicabilité au niveau du tableau de bord et en adaptant la supervision au contexte, nous pouvons cesser de trop réfléchir à l'IA et commencer à obtenir de meilleurs résultats grâce à elle.

Beth Weeks est vice-présidente exécutive du développement chez Planview. Elle dirige l'équipe de développement logiciel des produits Planview qui offrent des fonctionnalités de gestion de portefeuille stratégique, d'automatisation des services professionnels, d'architecture d'entreprise et d'idéation.

Beth a occupé des postes de direction dans le secteur des logiciels au cours des 20 dernières années et a accompagné des entreprises dans la transformation de leurs produits sur site vers des solutions SaaS (Software as a Service) et PaaS (Platform as a Service) bien architecturées. Elle possède également une solide expérience dans la constitution d'équipes performantes et collaboratives, réparties à l'échelle mondiale en Amérique du Nord, en Europe, au Moyen-Orient et en Afrique (EMEA) et en Inde.

Avant de rejoindre Planview en 2017, Beth était vice-présidente senior de l'ingénierie produit et des opérations cloud chez WP Engine, où elle dirigeait le développement produit et les opérations cloud de plusieurs centres de données internationaux hébergeant plus de 500 000 sites web. Elle a également occupé des postes de direction chez Zilliant, Vignette (rachetée par Open Text) et Intergraph.