Suivez nous sur

Comment les LLM multi-agents peuvent permettre aux modèles d'IA de résoudre plus efficacement des tâches complexes

Des leaders d'opinion

Comment les LLM multi-agents peuvent permettre aux modèles d'IA de résoudre plus efficacement des tâches complexes

mm

Aujourd'hui, la plupart des organisations souhaitent utiliser des modèles de langage étendus (LLM) et mettre en œuvre des preuves de concept et des agents d'intelligence artificielle (IA) pour optimiser les coûts au sein de leurs processus métier et offrir des expériences utilisateur nouvelles et créatives. Cependant, la majorité de ces implémentations sont « ponctuelles ». En conséquence, les entreprises ont du mal à obtenir un retour sur investissement (ROI) dans bon nombre de ces cas d’utilisation.

L'IA générative (GenAI) promet d'aller au-delà des logiciels comme le copilote. Plutôt que de simplement fournir des conseils et de l'aide à un expert en la matière (PME), ces solutions pourraient devenir les acteurs des PME, exécutant leurs actions de manière autonome. Pour que les solutions GenAI en arrivent à ce point, les organisations doivent leur fournir des connaissances et de la mémoire supplémentaires, la capacité de planifier et de replanifier, ainsi que la capacité de collaborer avec d'autres agents pour effectuer des actions.

Alors que les modèles uniques conviennent dans certains scénarios, agissant comme copilotes, les architectures agentiques ouvrent la porte aux LLM pour devenir des composants actifs de l'automatisation des processus métier. Ainsi, les entreprises devraient envisager de tirer parti Systèmes multi-agents basés sur LLM (LLM-MA) pour rationaliser les processus métier complexes et améliorer le retour sur investissement.

Qu'est-ce qu'un système LLM-MA ?

Alors, qu’est-ce qu’un système LLM-MA ? En bref, ce nouveau paradigme de la technologie de l’IA décrit un écosystème d’agents d’IA, et non d’entités isolées, travaillant ensemble de manière cohérente pour résoudre des défis complexes.

Les décisions doivent être prises dans un large éventail de contextes, tout comme une prise de décision fiable entre humains nécessite une spécialisation. Les systèmes LLM-MA construisent cette même « intelligence collective » dont bénéficie un groupe d’humains grâce à plusieurs agents spécialisés interagissant ensemble pour atteindre un objectif commun. En d’autres termes, de la même manière qu’une entreprise rassemble différents experts de différents domaines pour résoudre un problème, les systèmes LLM-MA fonctionnent également.

Les exigences commerciales sont trop lourdes pour un seul LLM. Cependant, en répartissant les capacités entre des agents spécialisés dotés de compétences et de connaissances uniques au lieu de confier chaque tâche à un seul LLM, ces agents peuvent accomplir leurs tâches de manière plus efficace et efficiente. Les LLM multi-agents peuvent même « vérifier » le travail de chacun grâce à une vérification croisée, réduire les « hallucinations » pour une productivité et une précision maximales.

En particulier, les systèmes LLM-MA utilisent une méthode diviser pour régner pour acquérir un contrôle plus raffiné sur d'autres aspects des systèmes complexes basés sur l'IA – notamment, un meilleur réglage sur des ensembles de données spécifiques, la sélection de méthodes (y compris l'IA pré-transformateur) pour une meilleure explicabilité, gouvernance, sécurité et fiabilité et en utilisant des outils non-IA dans le cadre d’une solution complexe. Dans le cadre de cette approche diviser pour régner, les agents effectuent des actions et reçoivent des commentaires d'autres agents et des données, permettant l'adoption d'une stratégie d'exécution au fil du temps.

Opportunités et cas d'utilisation des systèmes LLM-MA

Les systèmes LLM-MA peuvent automatiser efficacement les processus métier en recherchant dans des documents structurés et non structurés, en générant du code pour interroger des modèles de données et en effectuant d'autres générations de contenu. Les entreprises peuvent utiliser les systèmes LLM-MA pour plusieurs cas d'utilisation, notamment le développement de logiciels, la simulation matérielle, le développement de jeux (en particulier le développement mondial), les découvertes scientifiques et pharmaceutiques, les processus de gestion du capital, l'économie financière et commerciale, etc.

Une application remarquable des systèmes LLM-MA est l’automatisation des centres d’appels/services. Dans cet exemple, une combinaison de modèles et d'autres acteurs programmatiques utilisant des flux de travail et des procédures prédéfinis pourraient automatiser les interactions des utilisateurs finaux et effectuer le tri des demandes via texte, voix ou vidéo. De plus, ces systèmes pourraient emprunter le chemin de résolution le plus optimal en exploitant les connaissances procédurales et SME avec les données de personnalisation et en invoquant des agents de type Retrieval Augmented Generation (RAG) et non LLM.

À court terme, ce système ne sera pas entièrement automatisé : des erreurs se produiront et il faudra que des humains soient impliqués. L’IA n’est pas prête à reproduire des expériences de type humain en raison de la complexité de tester une conversation libre par rapport, par exemple, aux préoccupations d’une IA responsable. Cependant, l'IA peut s'entraîner sur des milliers de tickets d'assistance historiques et de boucles de rétroaction pour automatiser des parties importantes des opérations des centres d'appels/services, améliorant ainsi l'efficacité, réduisant les temps d'arrêt de résolution des tickets et augmentant la satisfaction des clients.

Une autre application puissante des LLM multi-agents consiste à créer des interfaces de collaboration homme-IA pour des conversations en temps réel, résolvant des tâches qui n'étaient pas possibles auparavant. Intelligence conversationnelle en essaim (CSI), par exemple, est une méthode qui permet à des milliers de personnes de tenir des conversations en temps réel. Plus précisément, CSI permet à de petits groupes de dialoguer entre eux tout en demandant simultanément à différents groupes d'agents de résumer les fils de conversation. Il favorise ensuite la propagation du contenu à un plus grand nombre de personnes, renforçant ainsi la coordination humaine à une échelle sans précédent.

Sécurité, IA responsable et autres défis des systèmes LLM-MA

Malgré les opportunités passionnantes des systèmes LLM-MA, certains défis de cette approche surviennent à mesure que le nombre d'agents et la taille de leurs espaces d'action augmentent. Par exemple, les entreprises devront s’attaquer au problème des hallucinations classiques, ce qui nécessitera la participation des humains : une partie désignée devra être responsable des systèmes agentiques, en particulier ceux ayant un impact potentiellement critique, tels que la découverte automatisée de médicaments.

Il y aura également des problèmes de biais dans les données, qui peuvent se transformer en biais d’interaction. De même, les futurs systèmes LLM-MA exécutant des centaines d’agents nécessiteront des architectures plus complexes tout en tenant compte d’autres lacunes du LLM, des données et des opérations d’apprentissage automatique.

De plus, les organisations doivent répondre aux problèmes de sécurité et promouvoir des pratiques d’IA responsables (RAI). Un plus grand nombre de LLM et d'agents augmentent la surface d'attaque pour toutes les menaces d'IA. Les entreprises doivent décomposer différentes parties de leurs systèmes LLM-MA en acteurs spécialisés pour offrir plus de contrôle sur les risques LLM traditionnels, y compris les éléments de sécurité et RAI.

De plus, à mesure que les solutions deviennent plus complexes, les cadres de gouvernance de l'IA doivent également être mis en place pour garantir que les produits d'IA sont fiables (c'est-à-dire robustes, responsables, surveillés et explicables), résidents (c'est-à-dire sûrs, sécurisés, privés et efficaces) et responsables (c'est-à-dire équitables). , éthique, inclusif, durable et utile). La complexité croissante entraînera également un renforcement des réglementations, ce qui rendra encore plus primordial que la sécurité et le RAI fassent partie de chaque analyse de rentabilisation et conception de solution dès le départ, ainsi que des mises à jour continues des politiques, des formations et des enseignements en entreprise et TEVV (tests, évaluation, vérification). et validation).

Extraire la pleine valeur d'un système LLM-MA : considérations sur les données

Pour que les entreprises puissent extraire toute la valeur d'un système LLM-MA, elles doivent reconnaître que les LLM, à eux seuls, ne possèdent que des connaissances générales du domaine. Cependant, les LLM peuvent devenir des produits d'IA générateurs de valeur lorsqu'ils s'appuient sur des connaissances du domaine de l'entreprise, qui consistent généralement en des actifs de données différenciés, de la documentation d'entreprise, des connaissances des PME et des informations extraites de sources de données publiques.

Les entreprises doivent passer d’une approche centrée sur les données, où les données soutiennent le reporting, à une approche centrée sur l’IA, où les sources de données se combinent pour permettre à l’IA de devenir un acteur au sein de l’écosystème de l’entreprise. En tant que telle, la capacité des entreprises à organiser et gérer des actifs de données de haute qualité doit s'étendre à ces nouveaux types de données. De même, les organisations doivent moderniser leur approche de consommation de données et d’informations, changer leur modèle opérationnel et introduire une gouvernance qui unit les données, l’IA et la RAI.

Du point de vue des outils, GenAI peut fournir une aide supplémentaire concernant les données. En particulier, les outils GenAI peuvent générer des ontologies, créer des métadonnées, extraire des signaux de données, donner un sens à des schémas de données complexes, automatiser la migration des données et effectuer la conversion des données. GenAI peut également être utilisé pour améliorer la qualité des données et agir en tant que spécialiste de la gouvernance ainsi que copilote ou agent semi-autonome. De nombreuses organisations utilisent déjà GenAI pour démocratiser les données, comme en témoignent les capacités de « communication avec vos données ».

Adoption continue à l’ère du changement rapide

Un LLM n'ajoute pas de valeur ni n'obtient un retour sur investissement positif en soi, mais dans le cadre d'applications axées sur les résultats commerciaux. Le défi est que contrairement au passé, où les capacités technologiques des LLM étaient quelque peu connues, aujourd'hui, de nouvelles capacités émergent chaque semaine, voire quotidiennement, soutenant de nouvelles opportunités commerciales. À ce changement rapide s’ajoute un paysage réglementaire et de conformité en constante évolution, ce qui rend la capacité d’adaptation rapide cruciale pour réussir.

La flexibilité requise pour tirer parti de ces nouvelles opportunités nécessite que les entreprises changent de mentalité, passant des silos à la collaboration, en promouvant le plus haut niveau d'adaptabilité entre la technologie, les processus et les personnes, tout en mettant en œuvre une gestion robuste des données et une innovation responsable. En fin de compte, les entreprises qui adopteront ces nouveaux paradigmes seront à la tête de la prochaine vague de transformation numérique.

Alexei Zhukov dirige la pratique Science des données et IA chez Systèmes EPAM, Inc.., où il aide à définir la stratégie d'IA pour l'organisation et de nombreux clients EPAM dans tous les secteurs d'activité et sur tous les sites. Son groupe a livré plus de 100 solutions basées sur l'IA en production, donnant vie à des solutions avancées d'analyse, d'optimisation et d'automatisation, de vision par ordinateur, de traitement du langage naturel, de confidentialité, de sécurité, de conformité et MLOps. En tant que vétéran de l'industrie, il est passionné par l'innovation technologique. Sa carrière a couvert de nombreux postes, notamment celui de responsable de la prestation et d'architecte de solutions/d'entreprise, et il a de l'expérience dans la promotion de solutions de données et d'analyse pour les secteurs de l'information financière et commerciale.