Inteligencia Artificial
Auto-Gpt y BabyAGI de código abierto integran recursividad en aplicaciones de IA

Desarrollos recientes que involucran GPT automático BebéAGI han demostrado el impresionante potencial de los agentes autónomos, generando un entusiasmo considerable dentro de las esferas de investigación y desarrollo de software de IA. Estos agentes, basados en modelos de lenguaje extenso (LLM), son capaces de realizar complejas secuencias de tareas en respuesta a las indicaciones del usuario. Al emplear una variedad de recursos como Internet y acceso a archivos locales, otras API y estructuras de memoria básicas, estos agentes muestran avances tempranos en la integración de la recursividad en las aplicaciones de IA.
¿Qué es BabyAGI?
BabyAGI, presentado por Yohei Nakajima a través de Twitter el 28 de marzo de 2023, es una versión optimizada del Agente Autónomo Basado en Tareas original. Utilizando las capacidades de procesamiento del lenguaje natural (PLN) de OpenAI y Pinecone para almacenar y recuperar resultados de tareas en contexto, BabyAGI ofrece una experiencia eficiente y fácil de usar. Con un código conciso de 140 líneas, BabyAGI es fácil de comprender y ampliar.
De hecho, el nombre BabyAGI es significativo ya que estas herramientas impulsan persistentemente a la sociedad hacia sistemas de IA que, si bien aún no logran Inteligencia Artificial General (AGI), están aumentando exponencialmente en poder. El ecosistema de IA experimenta nuevos avances a diario, y con avances futuros y el potencial de una versión de GPT capaz de impulsarse a sí mismo para abordar problemas complejos, estos sistemas ahora dan a los usuarios la impresión de interactuar con AGI.
¿Qué es Auto-GPT?
Auto-GPT es un agente de IA diseñado para lograr objetivos expresados en lenguaje natural, dividiéndolos en subtareas más pequeñas y utilizando recursos como internet y otras herramientas en un bucle automatizado. Este agente emplea las API GPT-4 o GPT-3.5 de OpenAI y se destaca como una de las aplicaciones pioneras que utilizan GPT-4 para realizar tareas autónomas.
A diferencia de los sistemas interactivos como ChatGPT, que dependen de instrucciones manuales para cada tarea, Auto-GPT establece nuevos objetivos para lograr un objetivo mayor, sin requerir necesariamente la intervención humana. Capaz de generar respuestas a indicaciones para cumplir una tarea específica, Auto-GPT también puede crear y modificar sus propias indicaciones para instancias recursivas basadas en información recién adquirida.
Lo que esto significa seguir adelante
Aunque aún se encuentra en la fase experimental y con algunas limitaciones, los agentes están preparados para impulsar las ganancias de productividad facilitadas por la disminución de los costos del hardware y el software de IA. De acuerdo a Investigación de ARK Invest, el software de IA podría producir hasta 14 billones de dólares en ingresos y 90 billones de dólares en valor empresarial para 2030. A medida que los modelos básicos como GPT-4 continúan progresando, numerosas empresas optan por entrenar sus propios modelos más pequeños y especializados. Si bien los modelos básicos tienen una amplia gama de aplicaciones, los modelos especializados más pequeños ofrecen ventajas, como costos de inferencia reducidos.
Además, muchas empresas preocupadas por los derechos de autor y la gestión de datos están optando por desarrollar sus modelos patentados utilizando una combinación de datos públicos y privados. Un ejemplo notable es un LLM de 2.7 mil millones de parámetros entrenado en PubMed Datos biomédicos, que obtuvieron resultados prometedores en el examen de preguntas y respuestas del Examen de Licencia Médica de Estados Unidos (USMLE). El costo de la capacitación fue de aproximadamente $38,000. Plataforma MosaicML, con una duración de cálculo de 6.25 días. Por el contrario, se estima que la ejecución de entrenamiento final de GPT-3 costó casi 5 millones de dólares en cómputo.