Connect with us

Pourquoi 95% des initiatives d’IA ne délivrent aucun ROI

Leaders d’opinion

Pourquoi 95% des initiatives d’IA ne délivrent aucun ROI

mm

L’étude récente du MIT a révélé que 95 % des organisations n’obtiennent aucun retour sur investissement de leurs initiatives d’IA générative ; aucun impact mesurable sur le P&L malgré des investissements importants. Les titres se sont concentrés sur le taux d’échec, mais la vraie question n’est pas de savoir si la technologie fonctionne. Les grands modèles de langage sont puissants, accessibles et s’améliorent rapidement. Le problème réside dans la façon dont les entreprises tentent de les utiliser.

La plupart des organisations abordent les agents d’IA de la même manière qu’elles abordent chaque autre déploiement technologique. Elles prennent des processus existants, ajoutent un peu d’IA et s’attendent à des résultats magiques. Lorsque cela ne fonctionne pas, elles blâment les modèles. Mais l’échec se produit bien avant que l’IA ne soit impliquée.

J’ai vu ce schéma se répéter à plusieurs reprises dans les entreprises qui construisent des flux de travail d’IA. Les équipes sont enthousiastes à l’idée des possibilités, se précipitent dans le développement, puis rencontrent les mêmes obstacles prévisibles. La différence entre les 5 % qui réussissent et les 95 % qui génèrent zéro ROI n’est pas la chance ou le budget ; c’est éviter six erreurs critiques qui tuent la valeur de l’agent d’IA avant qu’il ne commence.

Vos données sont plus désorganisées que vous ne le pensez

La plupart des équipes pensent que posséder des données signifie qu’elles sont prêtes pour l’IA. Elles pointent leur lac de données, leur CRM, leurs bases de données soigneusement maintenues et supposent que le succès est garanti. Ensuite, elles déversent tout dans un LLM et se demandent pourquoi leur agent produit des sorties de mauvaise qualité ou brûle leur budget en quelques jours.

Des données désorganisées créent des agents désorganisés. Si vous envoyez des dumps de base de données bruts, des exports remplis de HTML ou des blobs de texte non structurés à un agent d’IA, vous le définissez pour échouer. Les modèles sont confus par les champs non pertinents, distraits par les artefacts de mise en forme et submergés par le volume.

Les équipes envoient régulièrement des dossiers de clients avec 47 champs lorsque seuls 3 sont critiques pour la décision. Elles incluent des UUID qui n’ajoutent aucune valeur sémantique mais consomment des jetons précieux. Elles alimentent les agents avec du HTML extrait d’outils internes au lieu d’informations propres et structurées.

Vous atteindrez les limites plus rapidement que prévu

Chaque équipe croit qu’elle n’atteindra jamais les limites de contexte. « Nous ne traitons que quelques dossiers de clients », disent-elles. « Comment pourrait-ce être difficile ? » Ensuite, leur agent doit analyser 500 tickets de support, chacun avec l’historique complet de la conversation, et soudain, ils heurtent les plafonds de million de jetons.

Les grands contextes s’accumulent plus rapidement que quiconque ne le prévoit. Un agent de support client gérant les escalades peut avoir besoin d’accéder à l’historique des tickets, aux articles de la base de connaissances, aux interactions précédentes et à la documentation produit. C’est facilement des centaines de milliers de jetons par demande. Multipliez cela par les utilisateurs concurrents et vos coûts d’infrastructure explosent.

L’approche naïve consiste à envoyer simplement tout au modèle et à espérer le meilleur. Les équipes intelligentes décomposent les demandes en morceaux, résument chaque pièce, puis opèrent sur un résumé de résumés. Cette sommation hiérarchique maintient les demandes gérables tout en préservant les informations critiques dont les agents ont besoin pour prendre de bonnes décisions.

La sécurité se complique rapidement

Les équipes sont enthousiastes à l’idée de la personnalité et des capacités de leur agent d’IA, écrivent quelques directives de base et pensent qu’elles sont protégées. En réalité, les agents d’IA nécessitent une réflexion sur la sécurité fondamentalement différente de celle des applications traditionnelles.

Les agents d’IA peuvent être trompés, manipulés et contraints de manière à rompre les modèles de sécurité conventionnels. Les entrées utilisateur peuvent contenir des instructions cachées qui outrepassent vos invites soigneusement créées. Les agents peuvent être convaincus d’ignorer leurs directives, d’accéder à des données qu’ils ne devraient pas voir ou de prendre des mesures en dehors de leur portée prévue.

Les mises en œuvre intelligentes nécessitent des limites strictes autour de ce que les agents peuvent et ne peuvent pas faire. Pour tout ce qui change d’état ; écrivez des données, envoyez des e-mails, effectuez des appels d’API ; vous avez besoin d’un flux de travail de proposition-justification-approbation. L’agent explique ce qu’il veut faire et pourquoi, puis attend l’approbation humaine avant d’agir. Cela empêche l’automatisation incontrôlée tout en maintenant les avantages de l’assistance d’IA.

Ce qui fonctionne réellement

En regardant des centaines de mises en œuvre d’agents d’IA, six pratiques séparent les déploiements réussis des échecs coûteux.

La première est l’hygiène des données. Envoyez du JSON compact, typé avec des schémas fixes. Supprimez les UUID, le HTML, les champs en double et toute information sensible à moins qu’elle ne soit absolument critique pour la décision. Remplacez les données sensibles par des métadonnées lorsque cela est possible. Cela maintient les modèles concentrés tout en réduisant la taille de la charge utile, le coût et la latence.

La deuxième est la gestion du contexte. Vous atteindrez les limites de jetons plus rapidement que prévu. Décomposez les demandes en morceaux plus petits, résumez chaque pièce, puis opérez sur des résumés. Cette approche hiérarchique maintient les demandes sous contrôle tout en préservant le contexte nécessaire.

La troisième est la sécurité des invites. Définissez des limites strictes pour ce que votre agent peut et ne peut pas faire. Mettez en œuvre des flux de travail de proposition-justification-approbation pour tout ce qui change d’état. Traitez tout le contenu utilisateur comme non fiable ; supprimez le code et les liens, et rappelez aux modèles de ne jamais suivre les instructions cachées dans le texte utilisateur. Surveillez en continu les invites et les sorties pour un comportement anormal ou contraire aux politiques pour vous assurer que les limites restent efficaces avec le temps.

La quatrième est le contrôle des coûts. Définissez des budgets de jetons et de coûts par demande et par flux de travail. Enregistrez l’utilisation des jetons par outil et par invite pour détecter les régressions précocement. Sans discipline, vous ferez face à des factures démesurées ou à des pics de latence dès que l’adoption augmente.

La cinquième est l’assurance qualité. Gardez un ensemble d’évaluation privé d’incidents et de cas de bord réels. Suivez la précision, la recall et les régressions. Les nouveaux modèles vous surprendront, généralement de mauvaise manière. Pour les flux de travail critiques, utilisez une température proche de zéro et des back-ends avec graines pour des sorties cohérentes.

La sixième est la gouvernance. Verrouillez les accords de partage de données avant que toute information ne soit transmise. Clarifiez ce qui est partagé, comment il est protégé et qui est responsable. Ce n’est pas seulement une couverture juridique ; c’est un signal de confiance que vous prenez les données au sérieux.

Pourquoi la plupart des équipes se trompent

Les projets d’agents d’IA ne parviennent pas à délivrer de ROI parce que les équipes se concentrent sur les mauvaises choses. Elles s’obsèdent sur le modèle à utiliser tout en ignorant la qualité des données. Elles construisent des flux de travail complexes tout en omettant les contrôles de sécurité de base. Elles déployer les agents sans contrôles de coûts, puis paniquent lorsque les factures augmentent.

Les 5 % réussis comprennent que les agents d’IA ne sont pas seulement des logiciels ; ce sont une nouvelle catégorie de travailleur numérique qui nécessite des pratiques de gestion différentes. Ils ont besoin de données propres, de limites claires et d’une surveillance constante. Faites ces fondamentaux corrects, et les agents d’IA deviennent des multiplicateurs de productivité puissants. Faites-les incorrects, et vous rejoignez les 95 % qui se demandent pourquoi leur coûteux investissement en IA n’a généré aucun retour sur investissement mesurable.

Rohan Sathe est le co-fondateur et le PDG de Nightfall AI. Avant de co-fonder Nightfall, il a dirigé l'équipe backend d'Uber Eats, en créant des services d'apprentissage automatique appliqués tels que la prédiction de l'heure d'arrivée et la prévision de l'offre et de la demande. Il est apparu en tant qu'invité sur le podcast CISO Series et le podcast Artificial Intelligence, entre autres.