Connect with us

Agents IA et dynamique du marché : risque, opportunité et stratégie

Leaders d’opinion

Agents IA et dynamique du marché : risque, opportunité et stratégie

mm

2026 sera une année de test pour les agents IA en termes de résilience : le marché a augmenté de 7 milliards à près de 10 milliards, les régulateurs lancent des normes, les fonds de capital-risque et les entreprises soit augmentent soit réduisent les ressources. L’euphorie a cédé la place au pragmatisme : les analystes mettent en garde que GenAI est maintenant dans une phase de déception, et il est important de répondre à la question de où exactement les agents créent une valeur mesurable, ainsi que à quel coût et comment les intégrer de manière sûre dans les processus critiques.

Qu’est-ce qu’un agent IA dans la pratique ?

Dans les médias, un agent est défini comme presque tout ce qui peut invoquer des outils, mais pour le marché et les régulateurs, une définition plus terre-à-terre est importante.

Un agent IA est un système qui ne répond pas seulement aux demandes des utilisateurs, mais planifie de manière indépendante une chaîne d’actions et invoque des services externes dans le cadre de politiques et de restrictions spécifiées. Contrairement aux co-pilotes auxquels nous sommes habitués, qui aident les gens avec des tâches spécifiques, telles que la rédaction d’une lettre ou la synthèse d’un document, un agent prend en charge l’ensemble du processus de travail.

Dans la fintech, les agents analysent le portefeuille du client et collectent des données de marché. Dans l’unité opérationnelle, l’agent peut demander des documents KYC manquants, vérifier les statuts dans les registres externes et préparer une décision d’intégration préalable.

Comment le marché a déformé la valeur des agents IA

Le boom d’informations entourant l’introduction des agents IA a été puissant : les entreprises intègrent cette fonctionnalité dans des produits distincts, créent de nouvelles unités commerciales et promeuvent activement une nouvelle vague d’autonomie pour les clients d’entreprise. Une partie importante des futurs budgets IA dans la fintech est déjà réallouée en faveur de solutions d’agents.

Le marché des capitaux l’a interprété à sa manière : les entreprises publiques se précipitent pour démontrer leur stratégie afin de ne pas paraître dépassées ; les startups se repositionnent en masse des produits ML aux plateformes d’agents ; les investisseurs risquent de surestimer le prix de toute croissance des revenus qui peut être attribuée aux agents, même si elle est en réalité liée à l’automatisation traditionnelle.

En conséquence, les agents sont crédités comme source de valeur là où les rendements réels sont encore générés par des processus bien établis, des données et un contrôle.

Où les agents montrent déjà des résultats mesurables

Aujourd’hui, seul un petit nombre de joueurs utilisent une approche agente dans la production, la plupart étant encore à l’étape expérimentale. Les premiers rendements tangibles peuvent être vus dans les mêmes domaines où l’intelligence artificielle a démarré plus tôt – des flux de travail à haute volume, formalisables, avec des temps et des coûts de cycle pré- et post- clairs, des demandes de clients répétitives et une préparation de réunions, une anti-fraude opérationnelle et une surveillance des activités suspectes, où les agents sont intégrés dans les systèmes de mise en garde et d’enquête existants.

Par exemple, une banque européenne a mis en œuvre des agents IA pour le traitement initial des comptes correspondants. Les agents trient automatiquement les documents, extraient les données pour KYC et vérifient les informations manquantes. En conséquence, le temps de collecte des données a été réduit de 99 %, les coûts de 94 %, et la précision du travail des analystes a augmenté.

L’infrastructure est la véritable valeur, et non l’agent lui-même

Les investisseurs devraient se poser des questions sur la façon dont l’architecture des données est structurée sous les agents, s’il existe une couche unique d’accès et d’audit pour toutes les actions des agents, et comment les problèmes de stockage de données sensibles et de confidentialité sont abordés lors de l’utilisation de modèles externes.

Après tout, l’actif le plus important est le flux de travail dans lequel l’agent est intégré : KYC, intégration, anti-fraude, gestion de liquidité et communication client. Les entreprises qui gèrent ces processus par le biais de parts de marché, de profondeur d’intégration ou de statut réglementaire bénéficient davantage des agents que les autres : elles peuvent augmenter les marges et réduire les pertes sans perdre le contrôle.

Une startup qui vend un agent universel conditionnel mais ne possède aucun processus ou domaine critique se trouve dans la position la moins avantageuse : elle peut être relativement facilement remplacée par un autre cadre.

Nous voyons la véritable valeur d’un agent dans son accès à des données fiables, propres et juridiquement sécurisées, ainsi que dans son intégration avec les systèmes existants.

Sans contrôle, il n’y a pas d’échelle

Les régulateurs dans divers pays exigent déjà que les systèmes IA soient transparents, contrôlables et vérifiables. Par conséquent, la capacité d’une entreprise à contrôler et à documenter le travail des agents est déjà une condition préalable pour opérer sur le marché.

Cela conduit à la prochaine étape logique : les entreprises ont besoin d’une infrastructure de contrôle globale. Cela inclut la journalisation de toutes les actions des agents, une surveillance constante, des alertes pour les écarts et des tests de charge.

Un exemple de réussite est Sumsub, qui a déployé le co-pilote IA « Summy » pour les spécialistes de la conformité et de la lutte contre la fraude. Contrairement aux boîtes noires, le système ne prend pas de décisions autonomes, mais analyse des tableaux de transactions et génère des rapports prêts à l’audit en langage naturel, réduisant le temps de traitement des incidents de trois fois tout en maintenant un contrôle humain total.

Les fournisseurs qui intègrent un tel module dans leurs plateformes et solutions d’agents gagnent non seulement un avantage technologique, mais également un avantage réglementaire : ils réduisent le temps et le coût des approbations et simplifient les vérifications et les audits.

Que doit vérifier un investisseur en plus du produit ?

Les investisseurs sous-estiment souvent les risques car ils se manifestent rarement immédiatement. Plus souvent qu’autrement, c’est une défaillance système progressive, presque imperceptible, qui s’accumule au fil du temps et conduit à des conséquences graves.

Si une entreprise n’établit pas de limites strictes et n’implémente pas un processus de surveillance, le problème n’est remarqué que lorsqu’il est signalé par les régulateurs ou les clients.

De plus, l’injection rapide, l’empoisonnement des données et la contournement des politiques d’accès deviennent une menace réelle, car les attaquants peuvent exploiter tout cela. Dans la fintech, de telles attaques affectent directement la lutte contre la fraude, le KYC et les opérations de paiement.

Un exemple de ce risque : un employé financier d’une société multinationale a transféré 25 millions de dollars sur les comptes des fraudeurs après avoir participé à une conférence vidéo où les attaquants ont utilisé l’IA générative en temps réel pour cloner les visages et les voix du directeur financier et de plusieurs collègues.

Cet exemple et de nombreux autres montrent que les méthodes traditionnelles de vérification vidéo ou vocale ne fournissent plus de protection fiable dans un environnement d’entreprise.

Pour les investisseurs, cela signifie regarder non seulement le produit lui-même, mais également qui il dépend. Qui fournit la technologie ? Peut-elle être rapidement remplacée ? Existe-t-il un plan en cas de défaillances ou de changements dans les conditions de licence ?

C’est le moment d’une approche mature

Actuellement, ce qui est important pour la croissance du marché n’est pas un marketing révolutionnaire, mais trois choses simples : savoir travailler avec des processus réels, un contrôle normal et être honnête sur les risques.

Les investisseurs devraient demander ce que l’entreprise contrôle vraiment. Les startups doivent décider honnêtement s’ils veulent être multifonctionnelles ou avoir une connaissance approfondie dans un domaine spécifique. Et les entreprises doivent se rappeler que les agents ne remplacent pas les systèmes existants, mais les renforcent. Mais cela ne fonctionne que là où il y a de l’ordre dans les processus et la gestion.

Alexander Rugaev est un entrepreneur en série et un expert en capital-risque avec plus de 20 ans d'expérience dans la technologie, les marchés publics et le développement de startups. Il a fondé et développé plusieurs entreprises dans l'IA, la robotique et la blockchain, reliant l'innovation en stade précoce aux investisseurs institutionnels et publics dans le monde entier.