Contáctenos

Cómo los LLM de agentes múltiples pueden permitir que los modelos de inteligencia artificial resuelvan tareas complejas de manera más efectiva

Líderes del pensamiento

Cómo los LLM de agentes múltiples pueden permitir que los modelos de inteligencia artificial resuelvan tareas complejas de manera más efectiva

mm

Hoy en día, la mayoría de las organizaciones quieren utilizar grandes modelos de lenguaje (LLM) e implementar pruebas de conceptos y agentes de inteligencia artificial (IA) para optimizar los costos dentro de sus procesos comerciales y brindar experiencias de usuario nuevas y creativas. Sin embargo, la mayoría de estas implementaciones son "únicas". Como resultado, las empresas luchan por obtener un retorno de la inversión (ROI) en muchos de estos casos de uso.

La IA generativa (GenAI) promete ir más allá del software como copiloto. En lugar de simplemente brindar orientación y ayuda a un experto en la materia (PYME), estas soluciones podrían convertirse en actores de las PYME, ejecutando acciones de forma autónoma. Para que las soluciones GenAI lleguen a este punto, las organizaciones deben proporcionarles conocimiento y memoria adicionales, la capacidad de planificar y replanificar, así como la capacidad de colaborar con otros agentes para realizar acciones.

Si bien los modelos únicos son adecuados en algunos escenarios, actuando como copilotos, las arquitecturas agentes abren la puerta para que los LLM se conviertan en componentes activos de la automatización de procesos de negocio. Como tal, las empresas deberían considerar aprovechar Sistemas multiagente basados ​​en LLM (LLM-MA) para agilizar procesos comerciales complejos y mejorar el retorno de la inversión.

¿Qué es un sistema LLM-MA?

Entonces, ¿qué es un sistema LLM-MA? En resumen, este nuevo paradigma en la tecnología de IA describe un ecosistema de agentes de IA, no entidades aisladas, que trabajan juntos de manera cohesiva para resolver desafíos complejos.

Las decisiones deben ocurrir dentro de una amplia gama de contextos, del mismo modo que la toma de decisiones confiable entre humanos requiere especialización. Los sistemas LLM-MA construyen esta misma "inteligencia colectiva" que disfruta un grupo de humanos a través de múltiples agentes especializados que interactúan entre sí para lograr un objetivo común. En otras palabras, de la misma manera que una empresa reúne a diferentes expertos de diversos campos para resolver un problema, también funcionan los sistemas LLM-MA.

Las demandas empresariales son demasiadas para un solo LLM. Sin embargo, al distribuir capacidades entre agentes especializados con habilidades y conocimientos únicos en lugar de que un LLM asuma toda la carga, estos agentes pueden completar las tareas de manera más eficiente y efectiva. Los LLM con múltiples agentes pueden incluso "verificar" el trabajo de los demás mediante verificación cruzada, Reducir las 'alucinaciones' para máxima productividad y precisión.

En particular, los sistemas LLM-MA utilizan un método de divide y vencerás para adquirir un control más refinado sobre otros aspectos de sistemas complejos potenciados por IA, en particular, un mejor ajuste de conjuntos de datos específicos, selección de métodos (incluida la IA previa al transformador) para una mejor explicabilidad, gobernanza, seguridad y confiabilidad y el uso de herramientas que no son de inteligencia artificial como parte de una solución compleja. Dentro de este enfoque de divide y vencerás, los agentes realizan acciones y reciben retroalimentación de otros agentes y datos, lo que permite la adopción de una estrategia de ejecución a lo largo del tiempo.

Oportunidades y casos de uso de sistemas LLM-MA

Los sistemas LLM-MA pueden automatizar eficazmente los procesos comerciales mediante la búsqueda en documentos estructurados y no estructurados, generando código para consultar modelos de datos y realizando otras generaciones de contenido. Las empresas pueden utilizar los sistemas LLM-MA para varios casos de uso, incluido el desarrollo de software, simulación de hardware, desarrollo de juegos (específicamente, desarrollo mundial), descubrimientos científicos y farmacéuticos, procesos de gestión de capital, economía financiera y comercial, etc.

Una aplicación notable de los sistemas LLM-MA es la automatización del centro de llamadas/servicio. En este ejemplo, una combinación de modelos y otros actores programáticos que utilizan flujos de trabajo y procedimientos predefinidos podrían automatizar las interacciones del usuario final y realizar una clasificación de solicitudes a través de texto, voz o video. Además, estos sistemas podrían navegar por el camino de resolución más óptimo aprovechando el conocimiento de procedimientos y de las PYME con datos de personalización e invocando agentes de tipo Recuperación Aumentada (RAG) y no LLM.

A corto plazo, este sistema no estará completamente automatizado: se producirán errores y será necesario que haya humanos al tanto. La IA no está preparada para replicar experiencias similares a las humanas debido a la complejidad de probar una conversación de flujo libre frente, por ejemplo, a preocupaciones responsables de la IA. Sin embargo, la IA puede entrenarse en miles de tickets de soporte históricos y ciclos de retroalimentación para automatizar partes importantes de las operaciones del centro de llamadas/servicio, impulsando la eficiencia, reduciendo el tiempo de inactividad en la resolución de tickets y aumentando la satisfacción del cliente.

Otra poderosa aplicación de los LLM multiagente es la creación de interfaces de colaboración entre humanos y IA para conversaciones en tiempo real, resolviendo tareas que antes no eran posibles. Inteligencia de enjambre conversacional (CSI), por ejemplo, es un método que permite a miles de personas mantener conversaciones en tiempo real. Específicamente, CSI permite que grupos pequeños dialogen entre sí y, al mismo tiempo, diferentes grupos de agentes resumen los hilos de conversación. Luego fomenta la propagación de contenidos entre un conjunto más amplio de personas, potenciando la coordinación humana a una escala sin precedentes.

Seguridad, IA responsable y otros desafíos de los sistemas LLM-MA

A pesar de las interesantes oportunidades de los sistemas LLM-MA, surgen algunos desafíos para este enfoque a medida que aumenta el número de agentes y el tamaño de sus espacios de acción. Por ejemplo, las empresas necesitarán abordar el problema de las viejas alucinaciones, lo que requerirá que los humanos estén al tanto: una parte designada debe ser responsable de los sistemas de agentes, especialmente aquellos con impacto potencial crítico, como el descubrimiento automatizado de fármacos.

También habrá problemas con el sesgo de los datos, que puede convertirse en un sesgo de interacción. Del mismo modo, los futuros sistemas LLM-MA que ejecuten cientos de agentes requerirán arquitecturas más complejas y, al mismo tiempo, tendrán en cuenta otras deficiencias de LLM, datos y operaciones de aprendizaje automático.

Además, las organizaciones deben abordar las preocupaciones de seguridad y promover prácticas responsables de IA (RAI). Más LLM y agentes aumentan la superficie de ataque para todas las amenazas de IA. Las empresas deben descomponer diferentes partes de sus sistemas LLM-MA en actores especializados para proporcionar más control sobre los riesgos tradicionales de LLM, incluidos los elementos de seguridad y RAI.

Además, a medida que las soluciones se vuelven más complejas, también deben hacerlo los marcos de gobernanza de la IA para garantizar que los productos de IA sean confiables (es decir, robustos, responsables, monitoreados y explicables), residentes (es decir, seguros, privados y eficaces) y responsables (es decir, justos). , ético, inclusivo, sostenible y decidido). La creciente complejidad también conducirá a regulaciones más estrictas, lo que hará aún más primordial que la seguridad y la RAI formen parte de cada caso de negocio y diseño de solución desde el principio, así como actualizaciones continuas de políticas, capacitación y educación corporativa y TEVV (pruebas, evaluación, verificación). y validación).

Extracción del valor total de un sistema LLM-MA: consideraciones de datos

Para que las empresas extraigan el valor total de un sistema LLM-MA, deben reconocer que los LLM, por sí solos, solo poseen conocimientos de dominio general. Sin embargo, los LLM pueden convertirse en productos de IA generadores de valor cuando se basan en el conocimiento del dominio empresarial, que generalmente consiste en activos de datos diferenciados, documentación corporativa, conocimiento de las PYME e información recuperada de fuentes de datos públicos.

Las empresas deben pasar de estar centradas en los datos, donde los datos respaldan la generación de informes, a estar centradas en la IA, donde las fuentes de datos se combinan para permitir que la IA se convierta en un actor dentro del ecosistema empresarial. Como tal, la capacidad de las empresas para seleccionar y gestionar activos de datos de alta calidad debe extenderse a esos nuevos tipos de datos. Asimismo, las organizaciones necesitan modernizar su enfoque de consumo de datos e insights, cambiar su modelo operativo e introducir una gobernanza que una datos, IA y RAI.

Desde una perspectiva de herramientas, GenAI puede proporcionar ayuda adicional con respecto a los datos. En particular, las herramientas GenAI pueden generar ontologías, crear metadatos, extraer señales de datos, dar sentido a esquemas de datos complejos, automatizar la migración de datos y realizar conversión de datos. GenAI también se puede utilizar para mejorar la calidad de los datos y actuar como especialistas en gobernanza, así como copilotos o agentes semiautónomos. Muchas organizaciones ya utilizan GenAI para ayudar a democratizar los datos, como se ve en las capacidades de "hablar con sus datos".

Adopción continua en la era de los cambios rápidos

Un LLM no agrega valor ni logra un retorno de la inversión positivo por sí solo, sino como parte de aplicaciones centradas en los resultados comerciales. El desafío es que, a diferencia del pasado, cuando las capacidades tecnológicas de los LLM eran algo conocidas, hoy surgen nuevas capacidades semanalmente y, a veces, a diario, lo que respalda nuevas oportunidades comerciales. A este rápido cambio se suma un panorama regulatorio y de cumplimiento en constante evolución, lo que hace que la capacidad de adaptarse rápidamente sea crucial para el éxito.

La flexibilidad necesaria para aprovechar estas nuevas oportunidades requiere que las empresas cambien su mentalidad desde los silos a la colaboración, promoviendo el más alto nivel de adaptabilidad en la tecnología, los procesos y las personas, al tiempo que implementan una gestión sólida de datos y una innovación responsable. En última instancia, las empresas que adopten estos nuevos paradigmas liderarán la próxima ola de transformación digital.

Alexei Zhukov dirige la práctica de ciencia de datos e inteligencia artificial en Sistemas EPAM, Inc.., donde ayuda a definir la estrategia de IA para la organización y numerosos clientes de EPAM en todos los sectores y ubicaciones comerciales. Su grupo ha entregado más de 100 soluciones habilitadas para IA a producción, dando vida a análisis avanzados, optimización y automatización, visión por computadora, procesamiento de lenguaje natural, privacidad, seguridad, cumplimiento y soluciones MLOps. Como veterano de la industria, le apasiona la innovación tecnológica. Su carrera ha abarcado muchos roles, incluido el de jefe de entrega y arquitecto empresarial/de soluciones, y tiene experiencia en la defensa de soluciones analíticas y de datos para las industrias de información financiera y empresarial.