Connect with us

El IA que se enseña a sí misma ya no es ciencia ficción

Inteligencia artificial

El IA que se enseña a sí misma ya no es ciencia ficción

mm

Los marcos de IA emergentes están avanzando hacia un salto radical: máquinas que se auto-mejoran, sin necesidad de conocimientos humanos.

Durante años, incluso los modelos de IA más avanzados permanecieron como motores pasivos, prediciendo respuestas en función de los datos de entrenamiento que no podían modificar. Pero hoy en día, no es el tamaño del modelo lo que define el próximo capítulo de la inteligencia artificial, sino si el modelo puede evolucionar por sí mismo.

Recientemente, los investigadores del MIT presentaron un nuevo marco de IA llamado Self-Adapting LLMs (SEAL). El enfoque permite que los grandes modelos de lenguaje (LLM) se mejoren de forma autónoma, lo que permite a la IA diagnosticar sus limitaciones y actualizar permanentemente sus propios pesos neuronales a través de un bucle de retroalimentación interno impulsado por el aprendizaje por refuerzo. En lugar de requerir que los investigadores detecten errores, escriban nuevos mensajes o proporcionen ejemplos adicionales, el modelo asume la plena propiedad de su evolución.

“Los grandes modelos de lenguaje (LLM) son poderosos pero estáticos; carecen de mecanismos para adaptar sus pesos en respuesta a nuevas tareas, conocimientos o ejemplos”, escribieron los investigadores del MIT en una publicación de blog. “Los experimentos sobre incorporación de conocimientos y generalización de pocos disparos muestran que SEAL es un paso prometedor hacia modelos de lenguaje capaces de adaptación auto-dirigida en respuesta a nuevos datos”.

En las primeras pruebas, este bucle de auto-edición permitió que los modelos pasaran de un fracaso total al éxito en rompecabezas de razonamiento abstracto complejos, superando incluso a modelos mucho más grandes como GPT-4.1 con una tasa de éxito del 72,5%, donde los métodos tradicionales fracasaron. Además, SEAL reduce la supervisión humana en un 85% mientras aumenta la precisión y la adaptabilidad.

El auge de los marcos de IA auto-enseñados

SEAL es parte de una tendencia más amplia hacia la inteligencia de máquina autónoma. Los investigadores de Sakana AI, por ejemplo, han introducido la Máquina de Darwin-Gödel—un agente de IA que reescribe su propio código utilizando estrategias evolutivas de fin abierto.

“Crea diversas auto-mejoras, como una validación de parches, una mejor visualización de archivos, herramientas de edición mejoradas, generación y clasificación de múltiples soluciones para elegir la mejor, y agregar un historial de lo que se ha intentado antes (y por qué falló) al realizar nuevos cambios”, escribió Sakana AI en una publicación de blog.

De manera similar, los agentes de IA de Anthropic, impulsados por Claude 4, ahora pueden orquestar de forma autónoma flujos de trabajo en codebases y herramientas de negocio.

“Un sistema que se reconfigura según el tipo de activo, su entorno y su historial permite pasar de una respuesta reactivo a una estrategia de prevención continua”, me dijo Christian Struve, CEO y cofundador de Fracttal. “No se trata de más capas o más parámetros, sino de sistemas más autónomos y más útiles”.

Lo que une estos esfuerzos es una creencia fundamental: la IA no necesita ser más grande para ser más inteligente. Necesita volverse más adaptable.

“La escalabilidad ha traído grandes beneficios, pero estamos llegando a los límites de lo que el tamaño solo puede lograr. Los modelos de aprendizaje auto-adaptables como SEAL ofrecen un paso siguiente convincente al permitir que los sistemas crezcan y mejoren con el tiempo”, me dijo Jorge Riera, fundador y CEO de la plataforma de consultoría de datos full-stack Dataco. “Los modelos auto-evolutivos también cambian las métricas de progreso de estándares estáticos a medidas de adaptabilidad, eficiencia de aprendizaje y mejora segura a largo plazo. En lugar de probar solo lo que un modelo sabe en el momento de la implementación, podemos evaluar cómo aprende, retiene y evoluciona con el tiempo”.

Impacto en el ecosistema de IA y la carrera global hacia la autonomía

Este nivel de autonomía también reescribe la economía de la implementación de IA. Imagina sistemas de detección de fraude que se actualizan instantáneamente para contrarrestar nuevas amenazas, o tutores de IA que cambian su estilo de enseñanza en función del comportamiento de un estudiante. En la robótica, los marcos auto-adaptables podrían conducir a máquinas autónomas que aprenden nuevos patrones de movimiento sin necesidad de ser reprogramadas.

En todo el Medio Oriente, países como los Emiratos Árabes Unidos y Arabia Saudita están construyendo rápidamente modelos fundamentales diseñados para la adaptación. El Falcon de los Emiratos Árabes Unidos y el Jais de G42 son modelos de lenguaje grandes (LLM) de código abierto construidos con relevancia regional en mente, mientras que el ALLaM de Arabia Saudita y el Metabrain de Aramco Digital están avanzando en el ámbito de los agentes de IA autónomos para ciudades inteligentes, atención médica y logística.

Estos esfuerzos aún no son equivalentes a SEAL en términos de capacidad de auto-edición, pero reflejan una trayectoria compartida: desde sistemas de IA pasivos a agentes activos y evolutivos que pueden navegar la complejidad con una guía humana limitada. Y al igual que SEAL, estas iniciativas están respaldadas por marcos de gobernanza robustos, lo que destaca la creciente conciencia de que la autonomía de la IA debe ir acompañada de responsabilidad.

“Este es un primer paso hacia sistemas auto-administrados que modifican su lógica sin intervención constante”, dice Struve. “Creo que la inteligencia artificial no redefine lo que es la inteligencia, pero nos obliga a replantearnos nuestra relación con ella. Lo importante no es que un modelo evolucione, sino que lo haga en alineación con los objetivos que definimos como humanos”.

Jeff Townes, CTO de Gorilla Logic, también enfatiza la importancia de que la gobernanza mantenga el ritmo con la evolución de la IA: “La pregunta no es si la IA puede evolucionar, sino si la empresa puede evolucionar con ella. La gobernanza debe anclar cada adaptación de la IA a resultados y KPI claros que los líderes puedan medir y confiar, para que la innovación se escale con confianza en lugar de riesgo”.

¿Estamos preparados para una IA que se reescribe a sí misma?

La pregunta más provocativa que plantea SEAL no es técnica, sino que si los modelos pueden decidir cómo enseñarse a sí mismos, ¿qué papel desempeñamos en la configuración de sus valores, prioridades y dirección!

Los expertos advierten que a medida que los sistemas de IA auto-adaptables ganan autonomía, la carrera hacia la auto-mejora no debe superar el establecimiento de guardias éticas. “Creo que todos los sistemas de IA deben incorporar al menos tres principios éticos básicos”, dice Jacob Evans, CTO en Kryterion.

“Primero, y esto puede parecer obvio, pero las IA necesitan identificarse como IA. Segundo, las IA deben ser centradas en el ser humano, aumentando y no reemplazando el juicio humano. Y finalmente, deben reconocer sus limitaciones y incertidumbres, y negarse a proporcionar información que pueda facilitar un daño grave. Sin estas salvaguardias, la IA puede convertirse en una herramienta de manipulación en lugar de un apoyo confiable”.

“Para permitir que los modelos se auto-mejoren en producción, necesitan un bucle de retroalimentación dinámico, no solo un entrenamiento estático. Un método poderoso es utilizar un ‘gemelo digital’ o un entorno de sandbox sofisticado donde la IA pueda probar y validar de forma segura sus propias mejoras auto-generadas antes de que se implementen a los usuarios”, compartió Ganesh Vanama, ingeniero de visión por computadora en Automotus.

En cuanto a la gobernanza, Vanama agregó: “El control no negociable es la supervisión ‘humano en el bucle’. Dijo que mientras queremos que los modelos se adapten, “debe haber una supervisión continua para detectar ‘desviación de alineación’ donde el modelo se desvía de sus objetivos o restricciones de seguridad previstos. Este sistema debe dar a un auditor humano el poder de vetar o revertir instantáneamente cualquier actualización autónoma que falle en una revisión de seguridad o rendimiento”.

Pero otros expertos creen que todavía hay tiempo para desarrollar estas salvaguardias, argumentando que construir una IA auto-mejorada verdaderamente robusta y de propósito general sigue siendo un desafío monumental.

“Estos modelos aún carecen de la capacidad de reprogramarse a sí mismos de forma confiable en tiempo real. Los desafíos clave incluyen prevenir el refuerzo de errores, evitar el olvido catastrófico, garantizar la estabilidad durante las actualizaciones y mantener la transparencia sobre los cambios internos”, dice Riera. “Hasta que se aborden, la adaptación auto-dirigida completa sigue siendo una frontera en lugar de una realidad”.

Los investigadores del MIT ven SEAL como una evolución necesaria. Como dijo uno de los científicos principales de MIT, este marco actualmente solo refleja el aprendizaje humano más de cerca que cualquier cosa que haya venido antes.

“Estos sistemas sugieren un cambio de modelos estáticos y de un solo disparo a arquitecturas adaptativas que pueden aprender de la experiencia, administrar la memoria y perseguir objetivos con el tiempo. La dirección es clara: hacia la inteligencia modular y consciente del contexto que puede ajustarse continuamente”, me dijo Riera. “Aunque todavía se encuentra en la fase experimental, este enfoque marca un paso significativo hacia sistemas de IA más autónomos y resilientes”.

Ya sea que esto conduzca a sistemas más personalizados o a nuevas formas de agencia de máquina, queda por verse. La era de la IA auto-enseñada ha llegado, y no solo está reescribiendo su propio código, sino que también está reescribiendo las reglas de lo que pueden ser las máquinas.

Victor Dey es un editor y escritor de tecnología que cubre A.I., crypto, data science, metaverse y ciberseguridad dentro del ámbito empresarial. Cuenta con medio decenio de experiencia en medios y A.I. trabajando en medios de comunicación conocidos como VentureBeat, Metaverse Post, Observer y otros. Victor ha sido mentor de estudiantes emprendedores en programas de aceleración en universidades líderes como la Universidad de Oxford y la Universidad del Sur de California, y tiene un título de Maestría en ciencia y análisis de datos.