Inteligencia Artificial
COCONUT de Meta: el método de inteligencia artificial que piensa sin lenguaje

Cuando los investigadores descubrieron por primera vez que los grandes modelos de lenguaje (LLM) podían "pensar" paso a paso a través de incitación a la cadena de pensamientosFue un momento decisivo: por fin pudimos echar un vistazo al proceso de razonamiento de estas cajas negras. Pero ¿qué pasaría si te dijera que hacer que los modelos de IA piensen en lenguaje natural podría estar frenándolos?
Eso es lo que han descubierto los investigadores de Meta y UC San Diego con su Nuevo método COCO (Cadena de Pensamiento Continuo).
Imagínese que intenta resolver un problema matemático complejo y se ve obligado a narrar cada paso en voz alta. Es molesto, ¿verdad? Ahora está a punto de comprender el desafío principal al que se enfrentan los modelos de lenguaje.
Cuando hacemos que los modelos de IA razonen a través del lenguaje natural:
- La mayoría de los tokens que generan son simplemente pegamento lingüístico: palabras como "por lo tanto", "siguiente" y "en consecuencia" que no agregan ningún valor de razonamiento.
- Los puntos de decisión críticos se ven obstaculizados por la necesidad de comprometerse con palabras específicas.
- El modelo dedica un esfuerzo computacional significativo a mantener la coherencia gramatical en lugar de resolver problemas reales.
Los investigadores descubrieron algo interesante en sus estudios de neuroimagen: cuando los seres humanos abordamos tareas de razonamiento complejas, los centros del lenguaje de nuestro cerebro suelen permanecer sorprendentemente tranquilos. Sin embargo, hemos estado construyendo sistemas de IA que hacen lo contrario: los obligan a traducir cada paso del razonamiento en palabras.
Piense en cómo resuelve un rompecabezas. Su mente probablemente explora múltiples posibilidades simultáneamente, mantiene hipótesis difusas y solo cristaliza sus pensamientos en lenguaje cuando comparte la solución. Pero los enfoques tradicionales de cadena de pensamiento obligan a los modelos de IA a verbalizar cada paso intermedio, lo que crea un "cuello de botella lingüístico".
Esta idea dio lugar a una pregunta convincente: ¿qué pasaría si pudiéramos dejar que los modelos de IA razonen en su “lenguaje” nativo –el espacio continuo y de alta dimensión de sus estados ocultos– en lugar de obligarlos a traducir todo en tokens?
Entendiendo la innovación de COCONUT
Imagínese la diferencia entre expresar sus pensamientos en voz alta y el proceso mental real que ocurre en su cerebro. Esa brecha, entre los pensamientos verbalizados y la actividad neuronal, es exactamente lo que los investigadores de Meta aprovecharon con COCONUT.
El verdadero avance de COCONUT radica en que permite que los modelos de IA piensen de dos maneras distintas, de forma muy similar a como lo hacen los humanos. Piensa en cuando estás resolviendo un rompecabezas complejo: no narras todos los movimientos posibles en tu cabeza, ¿verdad? En cambio:
- Absorber el problema:Absorbes la información (como si leyeras las reglas de un rompecabezas)
- Piensa en silencio:Tu cerebro explora múltiples posibilidades sin ponerlas en palabras.
- Comparte la solución:Sólo entonces explicas tu pensamiento a los demás.
COCONUT brinda a los modelos de IA esta misma flexibilidad natural. En lugar de obligarlos a “expresar” cada pensamiento en voz alta (como hacen los métodos tradicionales), les permite pensar en su espacio neuronal natural, lo que los investigadores llaman el “espacio latente”.
El modelo cambia suavemente entre dos modos:
- Cuando necesita comprender preguntas o dar respuestas, utiliza un lenguaje regular.
- Pero, ¿qué ocurre con el proceso de pensamiento en sí? Utiliza patrones neuronales puros, libres de las limitaciones de las palabras.

Imagen: Meta
El viaje de formación
Uno de los aspectos más fascinantes de COCONUT es su plan de estudios. Lo que lo hace especial es que refleja la progresión natural del aprendizaje. Piense en cómo enseñamos habilidades complejas: no se lanza a alguien a lo profundo de inmediato, sino que se avanza gradualmente, agregando complejidad a medida que domina cada nivel.
Los investigadores adoptaron exactamente este enfoque con COCONUT:
Etapa 1: La Fundación
En primer lugar, el modelo aprende como cualquier otra IA, mediante el razonamiento tradicional en cadena de pensamientos, lo que le proporciona una base sólida de comprensión.
Etapa 2: La Transición
Aquí es donde la cosa se pone interesante. Gradualmente, esos pasos de razonamiento escritos se van reemplazando por pensamientos continuos. Imagínese quitar lentamente las ruedas de entrenamiento, dejando que el modelo desarrolle sus propios patrones de pensamiento internos.
Etapa 3: El equilibrio
Finalmente, el modelo aprende a cambiar sin problemas entre el pensamiento profundo en el espacio latente y la comunicación de sus conocimientos en un lenguaje claro.
Durante el entrenamiento, el modelo desarrolló capacidades que nadie programó explícitamente, como considerar múltiples caminos de razonamiento simultáneamente. Este comportamiento emergente es particularmente emocionante porque sugiere que podríamos estar acercándonos a formas más naturales de razonamiento de la IA. Son estos desarrollos inesperados los que a menudo conducen a los mayores avances.
¿Recuerdas los estudios de neuroimagen que mencioné antes? Demostraron que los cerebros humanos a menudo procesan tareas de razonamiento complejas sin involucrar demasiado a los centros del lenguaje. COCONUT parece estar desarrollando patrones similares: piensa profundamente en su espacio neuronal nativo y solo utiliza el lenguaje cuando es necesario para comunicarse.
Los números cuentan una historia
De la investigación se desprenden algunos hallazgos clave más:
- Problemas matemáticos con palabras (GSM8k): En este caso, COCONUT logró una precisión del 34.1 %. Si bien este valor está por debajo del tradicional método de cadena de pensamiento (42.9 %), es significativamente mejor que los métodos de referencia.
- Deducción lógica (ProntoQA): COCONUT alcanzó una precisión del 99.8 %, superando el 98.8 % del Chain-of-Thought tradicional. Pero lo mejor de todo es que lo logró utilizando solo 9 tokens, en comparación con el 92.5 de CoT.
- Planificación compleja (ProsQA): Los resultados más impresionantes se obtuvieron con esta prueba de razonamiento avanzado. COCONUT logró una precisión del 97 %, mientras que los métodos tradicionales solo alcanzaron el 77.5 %. Y, una vez más, lo hizo con una eficiencia notable: 14.2 tokens frente a 49.4.
Lo que hace que estos resultados sean prometedores no son sólo las cifras brutas, sino lo que revelan sobre los diferentes tipos de pensamiento. Si bien COCONUT todavía está encontrando su equilibrio con el razonamiento matemático, se destaca en tareas que requieren una planificación y deducción lógicas complejas.
COCONUT representa un replanteamiento fundamental de cómo pueden razonar los sistemas de IA y nos acerca a formas más naturales, eficientes y poderosas de inteligencia artificial. El viaje desde el razonamiento basado en el lenguaje al pensamiento continuo es un paso hacia sistemas de IA más capaces y eficientes.