Des leaders d'opinion
Décoder les opportunités et les défis pour les agents LLM en IA générative

Nous assistons Ă une progression des applications d'IA gĂ©nĂ©rative alimentĂ©es par de grands modĂšles de langage (LLM), depuis les invites jusqu'Ă la gĂ©nĂ©ration augmentĂ©e de rĂ©cupĂ©ration (RAG) jusqu'aux agents. On parle beaucoup des agents dans les cercles industriels et de recherche, principalement pour la puissance que cette technologie offre pour transformer les applications d'entreprise et offrir des expĂ©riences client supĂ©rieures. Il existe des modĂšles courants de crĂ©ation dâagents qui permettent de faire les premiers pas vers lâintelligence artificielle gĂ©nĂ©rale (AGI).
Dans mon précédent articleNous avons vu une échelle d'intelligence des modÚles pour la création d'applications LLM. Nous commençons par des invites qui capturent le domaine du problÚme et utilisent la mémoire interne de LLM pour générer des résultats. Avec RAG, nous enrichissons l'invite avec des connaissances externes issues d'une base de données vectorielle pour contrÎler les résultats. Ensuite, en enchaßnant les appels LLM, nous pouvons créer des workflows pour réaliser des applications complexes. Les agents vont plus loin en déterminant automatiquement la formation de ces chaßnes LLM. Examinons cela en détail.

Agents â Sous le capot
Un principe clé des agents est qu'ils utilisent la compréhension du langage du LLM pour élaborer un plan de résolution d'un problÚme donné. Le LLM comprend le problÚme et nous propose une séquence d'étapes pour le résoudre. Mais ce n'est pas tout. Les agents ne sont pas un simple systÚme de soutien qui vous fournira des recommandations pour résoudre le problÚme, puis vous transmettra le relais pour que vous puissiez suivre les étapes recommandées. Ils disposent des outils nécessaires pour agir. Effrayant, non ?
Si nous posons Ă un agent une question fondamentale comme celle-ci :
Humain: Quelle entreprise l'inventeur du téléphone a-t-il créée ?
Voici un exemple dâĂ©tapes de rĂ©flexion quâun agent peut suivre.
Agent (PENSANT) :
- PensĂ©e : je dois rechercher lâinventeur du tĂ©lĂ©phone.
- Action: Recherche [inventeur du téléphone]
- Observation : Alexander Graham Bell
- Pensée : je dois rechercher une entreprise fondée par Alexander Graham Bell
- Action: Rechercher [société fondée par Alexander Graham Bell]
- Observation : Alexander Graham Bell a cofondé l'American Telephone and Telegraph Company (AT&T) en 1885.
- PensĂ©e : jâai trouvĂ© la rĂ©ponse. Je reviendrai.
Agent (RĂPONSE) : Alexander Graham Bell a cofondĂ© AT&T en 1885
Vous pouvez voir que l'agent suit une maniĂšre mĂ©thodique de dĂ©composer le problĂšme en sous-problĂšmes qui peuvent ĂȘtre rĂ©solus en prenant des actions spĂ©cifiques. Les actions ici sont recommandĂ©es par le LLM et nous pouvons les mapper Ă des outils spĂ©cifiques pour mettre en Ćuvre ces actions. Nous pourrions activer un outil de recherche pour l'agent de telle sorte que lorsqu'il se rend compte que LLM a fourni la recherche en tant qu'action, il appellera cet outil avec les paramĂštres fournis par le LLM. La recherche ici se fait sur Internet mais peut Ă©galement ĂȘtre redirigĂ©e vers une base de connaissances interne comme une base de donnĂ©es vectorielles. Le systĂšme devient dĂ©sormais autonome et peut trouver comment rĂ©soudre des problĂšmes complexes en suivant une sĂ©rie d'Ă©tapes. Des cadres comme LangChaĂźne et LLaMAIndex vous offrent un moyen simple de crĂ©er ces agents et de vous connecter aux outils et Ă l'API. Amazon a rĂ©cemment lancĂ© son framework Bedrock Agents qui fournit une interface visuelle pour la conception d'agents.
Sous le capot, les agents suivent un style spécial d'envoi d'invites au LLM qui leur permettent de générer un plan d'action. Le modÚle Pensée-Action-Observation ci-dessus est populaire dans un type d'agent appelé ReAct (Reasoning and Acting). D'autres types d'agents incluent MRKL et Plan & Execute, qui diffÚrent principalement par leur style d'invite.
Pour les agents plus complexes, les actions peuvent ĂȘtre liĂ©es Ă des outils qui entraĂźnent des modifications dans les systĂšmes sources. Par exemple, nous pourrions connecter l'agent Ă un outil qui vĂ©rifie le solde des vacances et demande des congĂ©s dans un systĂšme ERP pour un employĂ©. Nous pourrions maintenant crĂ©er un joli chatbot qui interagirait avec les utilisateurs et, via une commande de chat, demanderait un congĂ© dans le systĂšme. Fini les Ă©crans complexes pour demander des congĂ©s, une interface de chat simple et unifiĂ©e. Cela semble excitant !?
Mises en garde et nĂ©cessitĂ© dâune IA responsable
Et si nous disposions d'un outil qui invoque des transactions boursiĂšres Ă l'aide d'une API prĂ©-autorisĂ©e. Vous crĂ©ez une application dans laquelle l'agent Ă©tudie les changements de stock (Ă l'aide d'outils) et prend des dĂ©cisions pour vous concernant l'achat et la vente d'actions. Que se passe-t-il si lâagent vend le mauvais titre parce quâil a hallucinĂ© et pris une mauvaise dĂ©cision ? Ătant donnĂ© que les LLM sont d'Ă©normes modĂšles, il est difficile de dĂ©terminer pourquoi ils prennent certaines dĂ©cisions. Les hallucinations sont donc courantes en l'absence de garde-fous appropriĂ©s.
MĂȘme si les agents sont tous fascinants, vous auriez probablement devinĂ© Ă quel point ils peuvent ĂȘtre dangereux. Sâils hallucinent et prennent une mauvaise action, cela pourrait entraĂźner dâĂ©normes pertes financiĂšres ou des problĂšmes majeurs dans les systĂšmes de lâentreprise. Par consĂ©quent, lâIA responsable devient de la plus haute importance Ă lâĂšre des applications basĂ©es sur le LLM. Les principes de l'IA responsable autour de la reproductibilitĂ©, de la transparence et de la responsabilitĂ© tentent de mettre des garde-fous sur les dĂ©cisions prises par les agents et suggĂšrent une analyse des risques pour dĂ©cider quelles actions nĂ©cessitent la participation d'un humain. Ă mesure que des agents plus complexes sont conçus, ils nĂ©cessitent davantage de contrĂŽle, de transparence et de responsabilitĂ© pour garantir que nous sachions ce quâils font.
Pensées de clÎture
La capacitĂ© des agents Ă gĂ©nĂ©rer un chemin d'Ă©tapes logiques avec des actions les rapproche vraiment du raisonnement humain. Leur donner des outils plus puissants peut leur donner des super pouvoirs. Des modĂšles comme ReAct tentent d'imiter la façon dont les humains rĂ©solvent le problĂšme et nous verrons de meilleurs modĂšles d'agents qui seront pertinents pour des contextes et des domaines spĂ©cifiques (banque, assurance, santĂ©, industrie, etc.). Lâavenir est lĂ et la technologie derriĂšre les agents est prĂȘte Ă ĂȘtre utilisĂ©e. Dans le mĂȘme temps, nous devons garder une attention particuliĂšre aux garde-fous en matiĂšre dâIA responsable pour nous assurer que nous ne construisons pas Skynet !










