Connect with us

Inteligencia artificial

Los LLM no son razonamiento, solo son muy buenos en la planificación

mm

Los grandes modelos de lenguaje (LLM) como OpenAI’s o3, Google’s Gemini 2.0, y DeepSeek’s R1 han mostrado un progreso notable en la resolución de problemas complejos, generación de texto similar al humano y incluso escritura de código con precisión. Estos LLM avanzados a menudo se refieren como “modelos de razonamiento” por sus habilidades notables para analizar y resolver problemas complejos. Pero, ¿estos modelos realmente razonan, o son solo excepcionalmente buenos en planificación? Esta distinción es sutil pero profunda, y tiene implicaciones importantes para cómo entendemos las capacidades y limitaciones de los LLM.

Para entender esta distinción, comparemos dos escenarios:

  • Razonamiento: Un detective que investiga un crimen debe reunir pruebas contradictorias, deducir cuáles son falsas y llegar a una conclusión basada en evidencia limitada. Este proceso implica inferencia, resolución de contradicciones y pensamiento abstracto.
  • Planificación: Un jugador de ajedrez que calcula la mejor secuencia de movimientos para dar jaque mate a su oponente.

Mientras que ambos procesos involucran múltiples pasos, el detective se involucra en un profundo razonamiento para hacer inferencias, evaluar contradicciones y aplicar principios generales a un caso específico. El jugador de ajedrez, por otro lado, se involucra principalmente en planificación, seleccionando una secuencia óptima de movimientos para ganar el juego. Los LLM, como veremos, funcionan mucho más como el jugador de ajedrez que como el detective.

Entendiendo la diferencia: Razonamiento vs. Planificación

Para darse cuenta de por qué los LLM son buenos en planificación en lugar de razonamiento, es importante entender primero la diferencia entre ambos términos. El razonamiento es el proceso de derivar nuevas conclusiones de premisas dadas utilizando lógica e inferencia. Implica identificar y corregir inconsistencias, generar nuevas ideas en lugar de solo proporcionar información, tomar decisiones en situaciones ambiguas y involucrarse en la comprensión causal y el pensamiento contrafáctico como “¿Qué pasaría si?” escenarios.

La planificación, por otro lado, se centra en estructurar una secuencia de acciones para lograr un objetivo específico. Depende de descomponer tareas complejas en pasos más pequeños, seguir estrategias de resolución de problemas conocidas, adaptar patrones aprendidos previamente a problemas similares y ejecutar secuencias estructuradas en lugar de derivar nuevas ideas. Mientras que tanto el razonamiento como la planificación involucran procesamiento paso a paso, el razonamiento requiere una mayor abstracción e inferencia, mientras que la planificación sigue procedimientos establecidos sin generar conocimiento fundamentalmente nuevo.

Cómo los LLM se acercan al “Razonamiento”

Los LLM modernos, como OpenAI’s o3 y DeepSeek-R1, están equipados con una técnica conocida como Chain-of-Thought (CoT) razonamiento, para mejorar sus habilidades de resolución de problemas. Este método anima a los modelos a descomponer problemas en pasos intermedios, imitando la forma en que los humanos piensan en un problema de manera lógica. Para ver cómo funciona, consideremos un simple problema de matemáticas:

Si una tienda vende manzanas a $2 cada una pero ofrece un descuento de $1 por manzana si se compran más de 5 manzanas, ¿cuánto costarían 7 manzanas?

Un LLM típico que utiliza CoT podría resolverlo de la siguiente manera:

  1. Determinar el precio regular: 7 * $2 = $14.
  2. Identificar que se aplica el descuento (ya que 7 > 5).
  3. Calcular el descuento: 7 * $1 = $7.
  4. Restar el descuento del total: $14 – $7 = $7.

Al presentar explícitamente una secuencia de pasos, el modelo minimiza la posibilidad de errores que surgen al tratar de predecir una respuesta de una vez. Aunque este desglose paso a paso hace que los LLM parezcan razonar, es esencialmente una forma de resolución de problemas estructurada, similar a seguir una receta paso a paso. Por otro lado, un proceso de razonamiento verdadero podría reconocer una regla general: Si el descuento se aplica más allá de 5 manzanas, entonces cada manzana cuesta $1. Un humano puede inferir tal regla de inmediato, pero un LLM no puede, ya que simplemente sigue una secuencia estructurada de cálculos.

Por qué Chain-of-Thought es planificación, no razonamiento

Aunque Chain-of-Thought (CoT) ha mejorado el rendimiento de los LLM en tareas orientadas a la lógica como problemas de palabras matemáticas y desafíos de codificación, no implica un razonamiento lógico genuino. Esto se debe a que CoT sigue el conocimiento procedural, dependiendo de pasos estructurados en lugar de generar nuevas ideas. Carece de una comprensión verdadera de la causalidad y las relaciones abstractas, lo que significa que el modelo no se involucra en el pensamiento contrafáctico o considera situaciones hipotéticas que requieren intuición más allá de los datos vistos. Además, CoT no puede cambiar fundamentalmente su enfoque más allá de los patrones en los que ha sido entrenado, lo que limita su capacidad para razonar de manera creativa o adaptarse en escenarios desconocidos.

Qué se necesitaría para que los LLM se conviertan en máquinas de razonamiento verdaderas

Entonces, ¿qué necesitan los LLM para razonar verdaderamente como los humanos? Aquí hay algunas áreas clave en las que requieren mejora y enfoques potenciales para lograrlo:

  1. Comprensión simbólica: Los humanos razonan manipulando símbolos y relaciones abstractos. Los LLM, sin embargo, carecen de un mecanismo de razonamiento simbólico genuino. Integrar la inteligencia artificial simbólica o modelos híbridos que combinen redes neuronales con sistemas de lógica formal podría mejorar su capacidad para involucrarse en un razonamiento verdadero.
  2. Inferencia causal: El razonamiento verdadero requiere comprender la causa y el efecto, no solo correlaciones estadísticas. Un modelo que razone debe inferir principios subyacentes a partir de los datos en lugar de simplemente predecir el siguiente token. La investigación en inteligencia artificial causal, que modela explícitamente las relaciones de causa y efecto, podría ayudar a los LLM a transitar de la planificación al razonamiento.
  3. Autorreflexión y metacognición: Los humanos constantemente evalúan sus propios procesos de pensamiento preguntándose “¿Tiene sentido esta conclusión?” Los LLM, por otro lado, no tienen un mecanismo para la autorreflexión. Construir modelos que puedan evaluar críticamente sus propias salidas sería un paso hacia el razonamiento verdadero.
  4. Sentido común e intuición: Aunque los LLM tienen acceso a vastas cantidades de conocimiento, a menudo luchan con el razonamiento de sentido común. Esto sucede porque no tienen experiencias del mundo real para dar forma a su intuición, y no pueden reconocer fácilmente las absurdidades que los humanos detectarían de inmediato. También carecen de una forma de incorporar dinámicas del mundo real en su toma de decisiones. Una forma de mejorar esto podría ser construir un modelo con un motor de sentido común, que podría involucrar la integración de entrada sensorial del mundo real o el uso de grafos de conocimiento para ayudar al modelo a entender el mundo de la manera que los humanos lo hacen.
  5. Pensamiento contrafáctico: El razonamiento humano a menudo implica preguntar, “¿Qué pasaría si las cosas fueran diferentes?” Los LLM luchan con este tipo de escenarios “¿qué pasaría si” porque están limitados por los datos en los que han sido entrenados. Para que los modelos piensen más como los humanos en estas situaciones, necesitarían simular escenarios hipotéticos y entender cómo los cambios en las variables pueden afectar los resultados. También necesitarían una forma de probar diferentes posibilidades y generar nuevas ideas, en lugar de simplemente predecir basándose en lo que ya han visto. Sin estas habilidades, los LLM no pueden verdaderamente imaginar futuros alternativos; solo pueden trabajar con lo que han aprendido.

Conclusión

Aunque los LLM pueden parecer razonar, en realidad están confiando en técnicas de planificación para resolver problemas complejos. Ya sea resolviendo un problema de matemáticas o participando en deducción lógica, están organizando principalmente patrones conocidos de una manera estructurada en lugar de comprender profundamente los principios detrás de ellos. Esta distinción es crucial en la investigación de IA porque si confundimos una planificación sofisticada con un razonamiento genuino, corremos el riesgo de sobreestimar las verdaderas capacidades de la IA.

El camino hacia el razonamiento de IA verdadero requerirá avances fundamentales más allá de la predicción de tokens y la planificación probabilística. Exigirá avances en lógica simbólica, comprensión causal y metacognición. Hasta entonces, los LLM permanecerán como herramientas poderosas para la resolución de problemas estructurados, pero no pensarán verdaderamente como los humanos.

El Dr. Tehseen Zia es un profesor asociado titular en la Universidad COMSATS de Islamabad, con un doctorado en Inteligencia Artificial de la Universidad Técnica de Viena, Austria. Especializado en Inteligencia Artificial, Aprendizaje Automático, Ciencia de Datos y Visión por Computadora, ha hecho contribuciones significativas con publicaciones en revistas científicas reputadas. El Dr. Tehseen también ha liderado varios proyectos industriales como investigador principal y ha servido como consultor de Inteligencia Artificial.