Líderes de opinión
Cómo los LLMs multiagente pueden permitir que los modelos de IA resuelvan tareas complejas de manera más efectiva
La mayoría de las organizaciones de hoy en día desean utilizar grandes modelos de lenguaje (LLMs) y implementar pruebas de concepto y agentes de inteligencia artificial (IA) para optimizar los costos dentro de sus procesos comerciales y ofrecer nuevas y creativas experiencias de usuario. Sin embargo, la mayoría de estas implementaciones son “de una sola vez”. Como resultado, las empresas luchan por obtener un retorno de la inversión (ROI) en muchos de estos casos de uso.
La inteligencia artificial generativa (GenAI) promete ir más allá del software como co-piloto. En lugar de proporcionar simplemente orientación y ayuda a un experto en la materia (SME), estas soluciones podrían convertirse en actores SME autónomos, ejecutando acciones de manera autónoma. Para que las soluciones de GenAI lleguen a este punto, las organizaciones deben proporcionarles conocimientos y memoria adicionales, la capacidad de planificar y replanificar, así como la capacidad de colaborar con otros agentes para realizar acciones.
Si bien los modelos individuales son adecuados en algunos escenarios, actuando como co-pilotos, las arquitecturas agenticas abren la puerta para que los LLMs se conviertan en componentes activos de la automatización de procesos comerciales. Como tal, las empresas deben considerar aprovechar sistemas de LLM multiagente (LLM-MA) para simplificar procesos comerciales complejos y mejorar el ROI.
¿Qué es un sistema LLM-MA?
Entonces, ¿qué es un sistema LLM-MA? En resumen, este nuevo paradigma en la tecnología de IA describe un ecosistema de agentes de IA, no entidades aisladas, que trabajan juntas de manera cohesiva para resolver desafíos complejos.
Las decisiones deben ocurrir dentro de una amplia gama de contextos, al igual que la toma de decisiones confiable entre humanos requiere especialización. Los sistemas LLM-MA construyen esta misma “inteligencia colectiva” que un grupo de humanos disfruta a través de múltiples agentes especializados que interactúan entre sí para lograr un objetivo común. En otras palabras, al igual que una empresa reúne a diferentes expertos de varios campos para resolver un problema, los sistemas LLM-MA operan de la misma manera.
Las demandas comerciales son demasiado grandes para un solo LLM. Sin embargo, al distribuir las capacidades entre agentes especializados con habilidades y conocimientos únicos en lugar de tener un LLM que soporte toda la carga, estos agentes pueden completar tareas de manera más eficiente y efectiva. Los LLMs multiagentes incluso pueden “revisar” el trabajo de los demás a través de la verificación cruzada, reducir las “alucinaciones” para una máxima productividad y precisión.
En particular, los sistemas LLM-MA utilizan un método de divide y vencer para adquirir un control más refinado sobre otros aspectos de los sistemas de IA complejos, notablemente, una mejor afinación a conjuntos de datos específicos, la selección de métodos (incluyendo la IA pre-transformadora) para una mejor explicabilidad, gobernanza, seguridad y confiabilidad, y el uso de herramientas no de IA como parte de una solución compleja. Dentro de este enfoque de divide y vencer, los agentes realizan acciones y reciben retroalimentación de otros agentes y datos, lo que permite la adopción de una estrategia de ejecución con el tiempo.
Oportunidades y casos de uso de los sistemas LLM-MA
Los sistemas LLM-MA pueden automatizar procesos comerciales de manera efectiva al buscar en documentos estructurados y no estructurados, generar código para consultar modelos de datos y realizar otras generaciones de contenido. Las empresas pueden utilizar sistemas LLM-MA para varios casos de uso, incluyendo el desarrollo de software, la simulación de hardware, el desarrollo de juegos (específicamente, el desarrollo de mundos), los descubrimientos científicos y farmacéuticos, los procesos de gestión de capital, la economía financiera y de comercio, etc.
Una aplicación notable de los sistemas LLM-MA es la automatización de centros de llamadas/servicio. En este ejemplo, una combinación de modelos y otros actores programáticos que utilizan flujos de trabajo y procedimientos predefinidos podrían automatizar las interacciones con los usuarios finales y realizar la triage de solicitudes a través de texto, voz o video. Además, estos sistemas podrían navegar por la ruta de resolución más óptima al aprovechar el conocimiento procedimental y de SME con datos de personalización e invocar agentes de tipo Retrieval Augmented Generation (RAG) y no LLM.
A corto plazo, este sistema no estará completamente automatizado, se producirán errores y habrá que tener humanos en el bucle. La IA no está lista para replicar experiencias similares a las humanas debido a la complejidad de probar conversaciones libres contra, por ejemplo, preocupaciones de IA responsable. Sin embargo, la IA puede entrenarse con miles de tickets de soporte históricos y bucles de retroalimentación para automatizar partes significativas de las operaciones del centro de llamadas/servicio, lo que mejora la eficiencia, reduce el tiempo de resolución de tickets y aumenta la satisfacción del cliente.
Otra aplicación poderosa de los LLMs multiagentes es la creación de interfaces de colaboración humano-IA para conversaciones en tiempo real, resolviendo tareas que no eran posibles antes. La inteligencia de enjambre conversacional (CSI), por ejemplo, es un método que permite que miles de personas mantengan conversaciones en tiempo real. Específicamente, la CSI permite que pequeños grupos dialoguen entre sí mientras que diferentes grupos de agentes resumen hilos de conversación. Luego, fomenta la propagación de contenido a través del cuerpo más grande de personas, lo que permite la coordinación humana a una escala sin precedentes.
Seguridad, IA responsable y otros desafíos de los sistemas LLM-MA
A pesar de las emocionantes oportunidades de los sistemas LLM-MA, surgen algunos desafíos con este enfoque a medida que aumenta el número de agentes y el tamaño de sus espacios de acción. Por ejemplo, las empresas deberán abordar el problema de las simples “alucinaciones”, lo que requerirá humanos en el bucle, una parte designada debe ser responsable de los sistemas agenticos, especialmente aquellos con un impacto crítico potencial, como el descubrimiento de medicamentos automatizado.
También habrá problemas con el sesgo de los datos, que pueden convertirse en sesgo de interacción. De manera similar, los futuros sistemas LLM-MA que ejecutan cientos de agentes requerirán arquitecturas más complejas al mismo tiempo que se tienen en cuenta otros fallos de LLM, datos y operaciones de aprendizaje automático.
Además, las organizaciones deben abordar las preocupaciones de seguridad y promover prácticas de IA responsable (RAI). Más LLMs y agentes aumentan la superficie de ataque para todas las amenazas de IA. Las empresas deben descomponer diferentes partes de sus sistemas LLM-MA en actores especializados para proporcionar más control sobre los riesgos tradicionales de LLM, incluyendo la seguridad y los elementos de RAI.
Además, a medida que las soluciones se vuelven más complejas, también deben serlo los marcos de gobernanza de IA para garantizar que los productos de IA sean confiables (es decir, robustos, responsables, monitoreados y explicables), residentes (es decir, seguros, seguros, privados y efectivos) y responsables (es decir, justos, éticos, inclusivos, sostenibles y con propósito). La creciente complejidad también conducirá a regulaciones más estrictas, lo que hace que sea aún más importante que la seguridad y la RAI sean parte de cada caso de negocio y diseño de solución desde el principio, así como actualizaciones de políticas continuas, capacitación y educación corporativa y estrategias de TEVV (pruebas, evaluación, verificación y validación).
Extraer el valor completo de un sistema LLM-MA: consideraciones de datos
Para que las empresas extraigan el valor completo de un sistema LLM-MA, deben reconocer que los LLMs, por sí solos, solo poseen conocimiento de dominio general. Sin embargo, los LLMs pueden convertirse en productos de IA que generan valor cuando dependen del conocimiento de dominio de la empresa, que generalmente consiste en activos de datos diferenciados, documentación corporativa, conocimiento de SME e información recuperada de fuentes de datos públicas.
Las empresas deben cambiar de un enfoque centrado en los datos, donde los datos respaldan la informes, a un enfoque centrado en la IA, donde las fuentes de datos se combinan para permitir que la IA se convierta en un actor dentro del ecosistema de la empresa. Como tal, la capacidad de las empresas para curar y gestionar activos de datos de alta calidad debe extenderse a estos nuevos tipos de datos. De manera similar, las organizaciones necesitan modernizar su enfoque de consumo de datos y perspectivas, cambiar su modelo de operación e introducir una gobernanza que une los datos, la IA y la RAI.
Desde una perspectiva de herramientas, la GenAI puede proporcionar ayuda adicional con respecto a los datos. En particular, las herramientas de GenAI pueden generar ontologías, crear metadatos, extraer señales de datos, dar sentido a esquemas de datos complejos, automatizar la migración de datos y realizar la conversión de datos. La GenAI también se puede utilizar para mejorar la calidad de los datos y actuar como especialistas en gobernanza, así como co-pilotos o agentes semi-autónomos. Ya muchas organizaciones utilizan la GenAI para ayudar a democratizar los datos, como se ve en las capacidades de “hablar con tus datos”.
Adopción continua en la era del cambio rápido
Un LLM no agrega valor ni logra un ROI positivo por sí solo, sino como parte de aplicaciones enfocadas en resultados de negocio. El desafío es que, a diferencia del pasado, cuando las capacidades tecnológicas de los LLMs eran algo conocidas, hoy en día surgen nuevas capacidades cada semana y, a veces, cada día, lo que apoya nuevas oportunidades de negocio. Además de este cambio rápido, hay un panorama regulatorio y de cumplimiento en constante evolución, lo que hace que la capacidad de adaptarse rápidamente sea crucial para el éxito.
La flexibilidad necesaria para aprovechar estas nuevas oportunidades requiere que las empresas cambien su mentalidad de silos a colaboración, promoviendo el nivel más alto de adaptabilidad en tecnología, procesos y personas, al mismo tiempo que implementan una gestión de datos robusta y una innovación responsable. En última instancia, las empresas que abracen estos nuevos paradigmas liderarán la próxima ola de transformación digital.












