Connect with us

Briser le cycle : Comment les organisations peuvent éviter Doomprompting et assurer le succès

Leaders d’opinion

Briser le cycle : Comment les organisations peuvent éviter Doomprompting et assurer le succès

mm

Depuis son concept théorique dans les années 1950, l’intelligence artificielle (IA) a ouvert la voie aux entreprises pour expérimenter des opportunités et une productivité améliorées grâce à diverses techniques, en particulier les systèmes d’apprentissage automatique. Ces outils/technologies ont amélioré la prévision et la prise de décision, jetant les bases pour les progrès techniques futurs. À récent, l’IA générative a promis de bouleverser tout ce que nous savons sur le travail et a démocratisé l’expérience IA. Les utilisateurs interagissent maintenant avec les modèles d’IA comme ChatGPT, grâce au « prompting », où l’on interagit aller et retour avec un modèle d’IA. Cependant, ces avantages sont également accompagnés d’un nouveau défi : Doomprompting. Cela équivaut à faire défiler sans fin le contenu en ligne, sans objectif défini, piégeant les utilisateurs dans des trous de lapin. Avec l’IA, cependant, le trou de lapin parle. Cet acte de raffinement continu de la commande IA pour les modèles génératifs et agents, motivé par l’ambition d’acquérir la sortie parfaite (et parfois en raison de la commande sans objectif spécifique à l’esprit), conduit à des coûts accrus et à des rendements décroissants. Cela crée un obstacle majeur au succès et contredit l’objectif de l’utilisation de la technologie IA elle-même.

Alors que les entreprises augmentent leurs budgets liés à l’IA, les décideurs doivent comprendre le chemin menant à de réels rendements sur leurs investissements et à la valeur qu’ils génèrent. Un rapport de 2025 de l’IEEE, The Hidden Costs of AI: How Small Inefficiencies Stack Up, démontre comment de petits ajustements peuvent s’accumuler en fardeaux économiques importants. Pour éviter de devenir partie de cette lutte coûteuse, les organisations doivent affiner la formation de leurs employés à l’utilisation des LLM pour atteindre le plein potentiel de leurs investissements dans l’IA.

L’IA générative apporte la promesse d’optimisation et d’efficacité. Cependant, lorsque les équipes sont piégées dans le cycle de raffinement infini (ou d’errance sans radar), l’inefficacité sape cette fondation.

Nettoyage du « Workslop »

L’une des raisons pour lesquelles les équipes affinent continuellement les sorties pour générer une réponse parfaite est le workslop. Décrit pour la première fois dans la Harvard Business Review, le workslop englobe « le contenu de travail généré par l’IA qui se fait passer pour un bon travail mais manque de substance pour avancer de manière significative une tâche donnée ».

Ce « slop » généré par l’IA est le premier domino dans une longue ligne qui crée le cycle de doomprompting. Alors que la modification du contenu sous-par à travers des itérations ou des éditions est importante, il est nécessaire de comprendre quand arrêter, avant qu’il ne se retrouve sur la pente des rendements décroissants. Les organisations doivent aborder leur investissement de temps dans la formation à l’IA avec un équilibre délicat. D’une part, les équipes doivent être conscientes de la qualité requise ; d’autre part, elles doivent savoir quand il est trop. La formation des employés à une utilisation plus intelligente des modèles d’IA grâce à un prompting optimal et à des objectifs clairs serait également utile.

Utilisation de l’IA agente pour éviter Doomprompting

Ces dernières années, les entreprises ont considérablement augmenté leur intérêt et leurs investissements dans l’IA agente, reconnue pour sa capacité à améliorer l’efficacité opérationnelle. L’IA agente peut prendre des tâches complexes, orchestrer avec de multiples agents (y compris les agents RAG et d’action) pour décider du plan d’action, et exécuter les tâches pour compléter la tâche globale de manière autonome.

Ces qualités peuvent aider l’IA à atténuer le doomprompting, ou à l’éviter complètement. Cela peut éliminer le besoin d’instruire les interfaces GenAI à travers de multiples prompts pour compléter la tâche. Un exemple de cela peut être trouvé dans les opérations informatiques alimentées par l’IA, ou AIOps, qui modernisent l’informatique en intégrant l’IA dans les tâches quotidiennes. Traditionnellement, les équipes passent leur temps à ajuster manuellement les systèmes. Les départements du 21e siècle sont ceux qui utilisent l’IA pour gérer de manière autonome des fonctions critiques comme le dépannage, la réponse aux incidents et l’allocation des ressources.

Un autre exemple approprié est la façon dont les systèmes d’IA agente peuvent gérer un incident complexe de manière autonome. Ces agents, ainsi que les ITOps, sont capables de comprendre le contexte du problème, d’orchestrer avec des agents de raisonnement pour décider du plan d’action, d’utiliser des agents d’action pour effectuer les corrections de dernière minute sur les systèmes informatiques et, enfin, d’employer des agents d’apprentissage pour comprendre la résolution et l’appliquer plus efficacement dans les incidents futurs.

L’automatisation intelligente de l’IA agente aide à réduire l’interaction humaine et à effectuer des tâches de manière autonome. Pour répondre aux exigences commerciales évolutives, les tâches et les opérations répétitives devraient être confiées à l’IA autonome. Cette délégation élimine le cycle de re-prompting et de raffinement répétitif qui alimente souvent le doomprompting. Les opérations autonomes permettent aux modèles d’IA de continuer à optimiser et de répondre aux variables changeantes sans intervention manuelle, conduisant à des résultats plus rapides avec une intervention humaine minimale.

Alors que les professionnels formés joueront toujours un rôle instrumental dans les opérations quotidiennes via l’approche humaine dans la boucle, leur temps sera mieux utilisé pour vérifier les résultats.

Le rôle de la gouvernance dans la prévention du Doomprompting

Dans une enquête récente de McKinsey, 88 % des répondants ont déclaré utiliser l’IA dans au moins une fonction commerciale. Cela représentait un bond de 10 % par rapport à 2024 et une augmentation étonnante de 33 % depuis 2023. Pour l’IA agente, ce bond était encore plus profond. De seulement 33 % en 2023 à près de 80 % en 2025.

Cette adoption généralisée pousse les entreprises à trouver de nouvelles solutions pour faire face au doomprompting. L’un de ces outils est des cadres de gouvernance robustes. Ces cadres doivent être soigneusement élaborés pour garantir que les projets d’IA restent alignés sur les objectifs commerciaux et ne tombent pas victimes de la danse infinie d’optimisation. Lorsque les équipes développent ces cadres, elles doivent considérer :

  • Établissement de lignes directrices : Les flux de données vers et depuis les modèles d’IA deviennent de plus en plus complexes. Pour les simplifier, les lignes directrices d’IA doivent créer un cadre pour que les équipes gèrent les données, prennent des décisions et gèrent les sorties d’IA de manière responsable.
  • Formation des utilisateurs : Une formation appropriée à l’utilisation des prompts peut contribuer à une productivité optimale
  • Utilisation de modèles spécialisés : Les modèles d’IA spécifiques à l’industrie et à l’objectif sont susceptibles de fournir des sorties contextuelles et significatives plus rapidement
  • Formation des modèles d’IA : La formation des modèles d’IA avec des données spécifiques à l’industrie, à la tâche ou à l’organisation (lorsque cela est possible) peut conduire à moins de workslop et à des sorties plus adaptées plus rapidement.
  • Élaboration de règles : L’établissement et la mise en œuvre d’un ensemble clair de règles sont essentiels pour guider le développement et le déploiement de l’IA. Lorsque les équipes établissent des limites opérationnelles, elles garantissent que les systèmes adoptés sont alignés sur les objectifs organisationnels, les normes éthiques et les exigences réglementaires.

Alors que le taux d’adoption des solutions d’IA augmente, la gouvernance ne l’est pas. Selon le rapport PEX Industry 2025 , moins de la moitié ont une politique de gouvernance de l’IA en place. Pendant ce temps, seulement 25 % étaient en train de mettre en œuvre une telle politique, et près d’un tiers n’avaient aucune politique de gouvernance de l’IA en place. Ces cadres peuvent être le facteur déterminant pour aider les entreprises à établir des limites claires sur ce qui constitue une performance acceptable.

Échapper à la boucle de Doomprompting

Pour éviter de tomber dans le cycle de doomprompting, les entreprises doivent adopter des stratégies d’IA qui privilégient les résultats par rapport à la perfection. L’utilisation d’une formation de prompt, de modèles d’IA spécifiques à un objectif et de modèles formés sur des données contextuelles d’entreprise peut réduire le besoin de re-prompting extensif. Les entreprises qui exploitent l’IA agente, les opérations informatiques autonomes et les cadres de gouvernance solides peuvent réaffecter des ressources critiques pour atteindre leurs objectifs commerciaux sans se laisser dépasser par des cycles d’optimisation infinis. Le succès viendra lorsque les équipes changeront leur mentalité de raffinement constant à une mentalité d’exécution ciblée et de résultats mesurables.

Arunava Bag CTO (EMEA) chez Digitate est un consultant et leader expérimenté dans le domaine des TI, avec plus de 25 ans d'expérience dans l'industrie, notamment une expertise approfondie dans les logiciels basés sur l'IA et l'apprentissage automatique, l'ingénierie de performance, la modélisation de capacité, l'optimisation des TI, l'informatique à haute performance, le développement d'applications et la gestion des pratiques technologiques. Il a réussi à promouvoir des produits émergents, à diriger des pratiques technologiques et à livrer des programmes technologiques complexes dans diverses verticales et géographies industrielles.