Líderes de opinión
Cómo los Grandes Modelos de Lenguaje (LLM) Impulsarán las Aplicaciones del Futuro

La inteligencia artificial generativa y, en particular, el sabor del lenguaje – ChatGPT está en todas partes. La tecnología de Grandes Modelos de Lenguaje (LLM) desempeñará un papel significativo en el desarrollo de aplicaciones futuras. Los LLM son muy buenos para entender el lenguaje debido al extenso pre-entrenamiento que se ha realizado para los modelos base en trillones de líneas de texto de dominio público, incluido el código. Métodos como el ajuste fino supervisado y el aprendizaje reforzado con retroalimentación humana (RLHF) hacen que estos LLM sean aún más eficientes para responder preguntas específicas y conversar con los usuarios. A medida que nos adentramos en la próxima fase de aplicaciones de inteligencia artificial impulsadas por LLM – los siguientes componentes clave serán cruciales para estas aplicaciones de próxima generación. La figura a continuación muestra esta progresión, y a medida que avanzas por la cadena, construyes más inteligencia y autonomía en tus aplicaciones. Veamos estos diferentes niveles.

Llamadas LLM:
Estas son llamadas directas a modelos de completar o chat por un proveedor de LLM como Azure OpenAI o Google PaLM o Amazon Bedrock. Estas llamadas tienen un prompt muy básico y en su mayoría utilizan la memoria interna del LLM para producir la salida.
Ejemplo: Pedir a un modelo básico como “text-davinci” que “cuenta un chiste”. Das muy poco contexto y el modelo confía en su memoria preentrenada interna para dar una respuesta (resaltada en verde en la figura a continuación – utilizando Azure OpenAI).

Prompts:
El siguiente nivel de inteligencia es agregar más y más contexto a los prompts. Hay técnicas de ingeniería de prompts que se pueden aplicar a los LLM que pueden hacer que den respuestas personalizadas. Por ejemplo, cuando se genera un correo electrónico a un usuario, algún contexto sobre el usuario, compras pasadas y patrones de comportamiento pueden servir como prompt para personalizar mejor el correo electrónico. Los usuarios familiarizados con ChatGPT saben diferentes métodos de prompting como dar ejemplos que se utilizan por el LLM para construir la respuesta. Los prompts aumentan la memoria interna del LLM con contexto adicional. El ejemplo es el siguiente.

Incrustaciones:
Las incrustaciones llevan los prompts al siguiente nivel buscando un almacén de conocimiento para contexto y obteniendo ese contexto y adjuntándolo al prompt. Aquí, el primer paso es hacer que un gran almacén de documentos con texto no estructurado sea buscable indexando el texto y poblando una base de datos vectorial. Para esto se utiliza un modelo de incrustación como ‘ada’ de OpenAI que toma un trozo de texto y lo convierte en un vector n-dimensional. Estas incrustaciones capturan el contexto del texto, por lo que las oraciones similares tendrán incrustaciones que están cerca una de la otra en el espacio vectorial. Cuando el usuario ingresa una consulta, esa consulta también se convierte en incrustación y ese vector se empareja con los vectores en la base de datos. Así, obtenemos los 5 o 10 fragmentos de texto coincidentes superiores para la consulta que forman el contexto. La consulta y el contexto se pasan al LLM para responder a la pregunta de manera similar a la humana.
Cadenas:
Hoy en día, las Cadenas son la tecnología más avanzada y madura disponible que se utiliza ampliamente para construir aplicaciones LLM. Las Cadenas son determinísticas donde una secuencia de llamadas LLM se unen con la salida de uno fluyendo en uno o más LLM. Por ejemplo, podríamos tener una llamada LLM que consulta una base de datos SQL y obtiene una lista de correos electrónicos de clientes y envía esa lista a otro LLM que generará correos electrónicos personalizados para los clientes. Estas cadenas LLM se pueden integrar en flujos de aplicaciones existentes para generar resultados más valiosos. Al utilizar cadenas, podríamos aumentar las llamadas LLM con entradas externas como llamadas API y la integración con gráficos de conocimiento para proporcionar contexto. Además, hoy en día, con múltiples proveedores de LLM disponibles como OpenAI, AWS Bedrock, Google PaLM, MosaicML, etc., podríamos mezclar y combinar llamadas LLM en cadenas. Para los elementos de la cadena con inteligencia limitada, se podría utilizar un LLM más bajo como ‘gpt3.5-turbo’, mientras que para tareas más avanzadas se podría utilizar ‘gpt4’. Las cadenas dan una abstracción para los datos, las aplicaciones y las llamadas LLM.
Agentes:
Los Agentes son un tema de muchos debates en línea, particularmente con respecto a ser inteligencia artificial general (AGI). Los Agentes utilizan un LLM avanzado como ‘gpt4’ o ‘PaLM2’ para planificar tareas en lugar de tener cadenas predefinidas. Así que ahora, cuando hay solicitudes de usuario, en función de la consulta, el agente decide qué conjunto de tareas llamar y construye dinámicamente una cadena. Por ejemplo, cuando configuramos un agente con un comando como “notificar a los clientes cuando el APR del préstamo cambia debido a la actualización de la regulación gubernamental”. El marco del agente hace una llamada LLM para decidir sobre los pasos a seguir o las cadenas a construir. Aquí, implicará invocar una aplicación que raspa sitios web regulatorios y extrae la tasa APR más reciente, luego una llamada LLM busca en la base de datos y extrae los correos electrónicos de los clientes que se ven afectados y, finalmente, se genera un correo electrónico para notificar a todos.
Pensamientos finales
LLM es una tecnología muy evolutiva y mejores modelos y aplicaciones se lanzan cada semana. De LLM a Agentes es la escalera de inteligencia y, a medida que avanzamos, construimos aplicaciones autónomas complejas. Mejores modelos significarán agentes más efectivos y las aplicaciones de próxima generación estarán impulsadas por estos. El tiempo dirá qué tan avanzadas serán las aplicaciones de próxima generación y qué patrones estarán impulsadas por estas.










