Inteligencia artificial
Meta’s COCONUT: El método de IA que piensa sin lenguaje

Cuando los investigadores descubrieron por primera vez que los grandes modelos de lenguaje (LLM) podían “pensar” paso a paso a través de chain-of-thought prompting, fue un momento de avance – finalmente, podríamos echar un vistazo al proceso de razonamiento de estas cajas negras. Pero ¿qué pasa si te digo que hacer que los modelos de IA piensen en lenguaje natural podría estar frenándolos?
Eso es lo que los investigadores de Meta y la Universidad de California en San Diego han descubierto con su nuevo método COCONUT (Chain of Continuous Thought).
Imagina tratar de resolver un problema matemático complejo mientras te fuerzas a narrar cada paso en voz alta. ¿Molesto, verdad? Ahora estás cerca de entender el desafío principal que enfrentan los modelos de lenguaje.
Cuando hacemos que los modelos de IA razonen a través del lenguaje natural:
- La mayoría de los tokens que generan son solo pegamento lingüístico – palabras como “por lo tanto”, “siguiente” y “en consecuencia” que no agregan valor de razonamiento
- Los puntos de decisión críticos se bloquean por la necesidad de comprometerse con palabras específicas
- El modelo dedica un esfuerzo computacional significativo a mantener la coherencia gramatical en lugar de la resolución real del problema
Los investigadores encontraron algo interesante en sus estudios de neuroimagen: cuando los humanos abordan tareas de razonamiento complejas, los centros del lenguaje de nuestro cerebro a menudo permanecen sorprendentemente callados. Sin embargo, hemos estado construyendo sistemas de IA que hacen lo contrario – obligándolos a traducir cada paso de razonamiento en palabras.
Piensa en cómo resuelves un rompecabezas. Tu mente probablemente explora múltiples posibilidades simultáneamente, mantiene hipótesis difusas y solo cristaliza sus pensamientos en lenguaje cuando comparte la solución. Pero los enfoques tradicionales de chain-of-thought fuerzan a los modelos de IA a verbalizar cada paso intermedio, creando un “cuello de botella lingüístico”.
Esta idea llevó a una pregunta convincente: ¿Qué pasa si pudiéramos dejar que los modelos de IA razonen en su “lenguaje” nativo – el espacio continuo y de alta dimensión de sus estados ocultos – en lugar de obligarlos a traducir todo en tokens?
Entendiendo la innovación de COCONUT
Imagina la diferencia entre expresar tus pensamientos en voz alta y el proceso mental real que ocurre en tu cerebro. Esa brecha – entre pensamientos verbalizados y actividad neural – es exactamente lo que los investigadores de Meta aprovecharon con COCONUT.
El verdadero avance de COCONUT radica en cómo permite que los modelos de IA piensen de dos maneras distintas, al igual que los humanos. Piensa en cuando resuelves un rompecabezas complejo – no narras cada movimiento posible en tu cabeza, ¿verdad? En su lugar, tú:
- Absorbe el problema: Tomas la información (como leer las reglas del rompecabezas)
- Piensa en silencio: Tu cerebro explora múltiples posibilidades sin ponerlas en palabras
- Comparte la solución: Solo entonces explicas tu pensamiento a otros
COCONUT da a los modelos de IA esta misma flexibilidad natural. En lugar de obligarlos a “hablar” cada pensamiento en voz alta (como lo hacen los métodos tradicionales), les permite pensar en su espacio neural nativo – lo que los investigadores llaman el “espacio latente”.
El modelo cambia suavemente entre dos modos:
- Cuando necesita entender preguntas o dar respuestas, utiliza el lenguaje regular
- Pero para el proceso de pensamiento real! Utiliza patrones neuronales puros, libres de las restricciones de las palabras

Imagen: Meta
El viaje de entrenamiento
Uno de los aspectos más fascinantes de COCONUT es su plan de estudios de entrenamiento. Lo que hace que este sea especial es cómo refleja la progresión natural del aprendizaje. Piensa en cómo enseñamos habilidades complejas – no tiras a alguien al agua profunda de inmediato. Construyes gradualmente, agregando complejidad a medida que domina cada nivel.
Los investigadores tomaron este mismo enfoque con COCONUT:
Etapa 1: La fundación
Primero, el modelo aprende como cualquier otro modelo de IA – a través del razonamiento tradicional de chain-of-thought. Esto le da una base sólida de comprensión.
Etapa 2: La transición
Aquí es donde se vuelve interesante. Gradualmente, esos pasos de razonamiento escritos se reemplazan con pensamientos continuos. Imagina retirar lentamente los soportes de entrenamiento, permitiendo que el modelo desarrolle sus propios patrones de pensamiento internos.
Etapa 3: El equilibrio
Finalmente, el modelo aprende a cambiar sin esfuerzo entre el pensamiento profundo en el espacio latente y la comunicación de sus ideas en lenguaje claro.
Durante el entrenamiento, el modelo desarrolló habilidades que nadie programó explícitamente – como considerar múltiples caminos de razonamiento simultáneamente. Este comportamiento emergente es particularmente emocionante porque sugiere que podríamos estar acercándonos a formas más naturales de razonamiento de IA. Son estos desarrollos inesperados los que a menudo conducen a los mayores avances.
Recuerda esos estudios de neuroimagen que mencioné anteriormente? Mostraron que los cerebros humanos a menudo procesan tareas de razonamiento complejas sin comprometer en gran medida los centros del lenguaje. COCONUT parece estar desarrollando patrones similares – pensando profundamente en su espacio neural nativo y solo convirtiéndolo en lenguaje cuando es necesario para la comunicación.
Los números cuentan una historia
Unos hallazgos clave más destacan de la investigación:
- Problemas de palabras matemáticas (GSM8k): Aquí, COCONUT logró una precisión del 34,1%. Si bien esto es inferior a la cadena de pensamiento tradicional (42,9%), es significativamente mejor que los enfoques básicos.
- Deducción lógica (ProntoQA): COCONUT alcanzó una precisión del 99,8%, superando la cadena de pensamiento tradicional (98,8%). Pero aquí está la sorpresa – lo hizo utilizando solo 9 tokens en comparación con los 92,5 de CoT.
- Planificación compleja (ProsQA): Los resultados más impresionantes provinieron de esta prueba de razonamiento avanzada. COCONUT logró una precisión del 97% mientras que los métodos tradicionales solo alcanzaron el 77,5%. Y nuevamente, lo hizo con una notable eficiencia – 14,2 tokens versus 49,4.
Lo que hace que estos resultados sean prometedores no es solo la cifra bruta – es lo que revelan sobre los diferentes tipos de pensamiento. Si bien COCONUT todavía puede estar encontrando su lugar en el razonamiento matemático, sobresale en tareas que requieren planificación lógica y deducción complejas.
COCONUT representa una reevaluación fundamental de cómo los sistemas de IA pueden razonar, y nos acerca a formas más naturales, eficientes y poderosas de inteligencia artificial. El viaje desde el razonamiento basado en lenguaje hasta el pensamiento continuo es un paso hacia sistemas de IA más capaces y eficientes.












