Contáctenos

Los LLM no razonan, solo son muy buenos en planificación

Inteligencia Artificial

Los LLM no razonan, solo son muy buenos en planificación

mm

Modelos de lenguaje extenso (LLM) como o3 de OpenAI, Géminis 2.0 de Google y R1 de DeepSeek han demostrado un progreso notable en la resolución de problemas complejos, la generación de textos similares a los humanos e incluso la escritura de códigos con precisión. Estos LLM avanzados a menudo se conocen como “modelos de razonamiento” por sus notables capacidades para analizar y resolver problemas complejos. Pero, ¿realmente estos modelos? razón¿O simplemente son excepcionalmente buenos en? planificarEsta distinción es sutil pero profunda y tiene importantes implicaciones para la manera en que entendemos las capacidades y limitaciones de los LLM.

Para entender esta distinción, comparemos dos escenarios:

  • Razonamiento:Un detective que investiga un crimen debe reunir evidencias contradictorias, deducir cuáles son falsas y llegar a una conclusión basándose en evidencia limitada. Este proceso implica inferencia, resolución de contradicciones y pensamiento abstracto.
  • Planificación:Un jugador de ajedrez calcula la mejor secuencia de movimientos para dar jaque mate a su oponente.

Si bien ambos procesos implican múltiples pasos, el detective se involucra en un razonamiento profundo para hacer inferencias, evaluar contradicciones y aplicar principios generales a un caso específico. El ajedrecista, por otro lado, se dedica principalmente a la planificación, seleccionando una secuencia óptima de movimientos para ganar la partida. Los LLM, como veremos, funcionan mucho más como el ajedrecista que como el detective.

Entendiendo la diferencia: razonamiento vs. planificación

Para entender por qué los LLM son buenos para planificar en lugar de razonar, es importante entender primero la diferencia entre ambos términos. El razonamiento es el proceso de derivar nuevas conclusiones a partir de premisas dadas utilizando la lógica y la inferencia. Implica identificar y corregir inconsistencias, generar nuevas perspectivas en lugar de simplemente proporcionar información, tomar decisiones en situaciones ambiguas y participar en la comprensión causal y el pensamiento contrafáctico como escenarios del tipo “¿Qué pasaría si…?”.

La planificación, por otra parte, se centra en estructurar una secuencia de acciones para alcanzar un objetivo específico. Se basa en dividir tareas complejas en pasos más pequeños, seguir estrategias conocidas de resolución de problemas, adaptar patrones previamente aprendidos a problemas similares y ejecutar secuencias estructuradas en lugar de derivar nuevos conocimientos. Si bien tanto el razonamiento como la planificación implican un procesamiento paso a paso, el razonamiento requiere una abstracción e inferencia más profundas, mientras que la planificación sigue procedimientos establecidos sin generar conocimientos fundamentalmente nuevos.

Cómo abordan el “razonamiento” los LLM

Los LLM modernos, como o3 de OpenAI y DeepSeek-R1, están equipados con una técnica conocida como Cadena de pensamiento (CdP) razonamiento, para mejorar sus habilidades de resolución de problemas. Este método alienta a los modelos a dividir los problemas en pasos intermedios, imitando la forma en que los humanos piensan en un problema de manera lógica. Para ver cómo funciona, considere un problema matemático simple:

Si una tienda vende manzanas a 2 dólares cada una, pero ofrece un descuento de 1 dólar por manzana si compras más de 5 manzanas, ¿cuánto costarían 7 manzanas?

Un LLM típico que utilice indicaciones de CoT podría resolverlo de esta manera:

  1. Determinar el precio regular: 7 * $2 = $14.
  2. Identificar que el descuento aplica (ya que 7 > 5).
  3. Calcular el descuento: 7 * $1 = $7.
  4. Resta el descuento del total: $14 – $7 = $7.

Al establecer explícitamente una secuencia de pasos, el modelo minimiza la posibilidad de errores que surgen al intentar predecir una respuesta de una sola vez. Si bien este desglose paso a paso hace que los LLM parezcan razonamientos, en esencia son una forma de resolución de problemas estructurada, muy similar a seguir una receta paso a paso. Por otro lado, un verdadero proceso de razonamiento podría reconocer una regla general: Si el descuento se aplica a más de 5 manzanas, entonces cada manzana cuesta $1Un ser humano puede inferir dicha regla inmediatamente, pero un LLM no puede, ya que simplemente sigue una secuencia estructurada de cálculos.

Por qué la cadena de pensamiento es planificación y no razonamiento

Aunque Cadena de pensamiento (CdP) Si bien ha mejorado el desempeño de los LLM en tareas orientadas a la lógica, como problemas matemáticos de palabras y desafíos de codificación, no implica un razonamiento lógico genuino. Esto se debe a que CoT sigue el conocimiento procedimental, apoyándose en pasos estructurados en lugar de generar ideas novedosas. Carece de una verdadera comprensión de la causalidad y las relaciones abstractas, lo que significa que el modelo no participa en el pensamiento contrafáctico ni considera situaciones hipotéticas que requieren intuición más allá de los datos vistos. Además, CoT no puede cambiar fundamentalmente su enfoque más allá de los patrones en los que ha sido entrenado, lo que limita su capacidad para razonar de manera creativa o adaptarse a escenarios desconocidos.

¿Qué se necesitaría para que los LLM se convirtieran en verdaderas máquinas de razonamiento?

Entonces, ¿qué necesitan los LLM para razonar verdaderamente como humanos? A continuación, se indican algunas áreas clave en las que necesitan mejorar y posibles enfoques para lograrlo:

  1. Comprensión simbólica:Los seres humanos razonan manipulando símbolos y relaciones abstractas. Sin embargo, los LLM carecen de un mecanismo genuino de razonamiento simbólico. La integración de IA simbólica o modelos híbridos que combinen redes neuronales con sistemas de lógica formal podría mejorar su capacidad para realizar un razonamiento verdadero.
  2. Inferencia causal:El razonamiento verdadero requiere comprender la causa y el efecto, no solo las correlaciones estadísticas. Un modelo que razone debe inferir principios subyacentes a partir de los datos en lugar de simplemente predecir el siguiente token. La investigación sobre la IA causal, que modela explícitamente las relaciones de causa y efecto, podría ayudar a los estudiantes de maestría en derecho a pasar de la planificación al razonamiento.
  3. La Autorreflexión y Metacognición:Los humanos evalúan constantemente sus propios procesos de pensamiento preguntándose “¿Tiene sentido esta conclusión?” Por otra parte, los LLM no cuentan con un mecanismo de autorreflexión. La construcción de modelos que puedan evaluar críticamente sus propios resultados sería un paso hacia el verdadero razonamiento.
  4. Sentido común e intuición: Aunque los estudiantes de posgrado tienen acceso a grandes cantidades de conocimiento, a menudo tienen dificultades para razonar con sentido común. Esto sucede porque no tienen experiencias del mundo real que den forma a su intuición y no pueden reconocer fácilmente los absurdos que los humanos captarían de inmediato. Tampoco tienen una manera de incorporar dinámicas del mundo real a su toma de decisiones. Una forma de mejorar esto podría ser construir un modelo con un motor de sentido común, lo que podría implicar la integración de información sensorial del mundo real o el uso de gráficos de conocimiento para ayudar al modelo a comprender mejor el mundo de la misma manera que lo hacen los humanos.
  5. Pensamiento contrafactual: El razonamiento humano a menudo implica preguntar: "¿Qué pasaría si las cosas fueran diferentes?". Los LLM tienen dificultades con este tipo de escenarios hipotéticos porque están limitados por los datos con los que han sido entrenados. Para que los modelos piensen más como los humanos en estas situaciones, necesitarían simular escenarios hipotéticos y comprender cómo los cambios en las variables pueden afectar los resultados. También necesitarían una forma de probar diferentes posibilidades y llegar a nuevos conocimientos, en lugar de simplemente predecir en función de lo que ya han visto. Sin estas habilidades, los LLM no pueden imaginar realmente futuros alternativos; solo pueden trabajar con lo que han aprendido.

Conclusión

Aunque los LLM pueden parecer razonadores, en realidad se basan en técnicas de planificación para resolver problemas complejos. Ya sea que resuelvan un problema matemático o realicen una deducción lógica, principalmente organizan patrones conocidos de manera estructurada en lugar de comprender profundamente los principios que los sustentan. Esta distinción es crucial en la investigación sobre IA porque si confundimos una planificación sofisticada con un razonamiento genuino, corremos el riesgo de sobrestimar las verdaderas capacidades de la IA.

El camino hacia una verdadera inteligencia artificial que razone requerirá avances fundamentales que vayan más allá de la predicción de tokens y la planificación probabilística. Exigirá avances en lógica simbólica, comprensión causal y metacognición. Hasta entonces, los LLM seguirán siendo herramientas poderosas para la resolución estructurada de problemas, pero no pensarán verdaderamente como lo hacen los humanos.

El Dr. Tehseen Zia es profesor asociado titular en la Universidad COMSATS de Islamabad y tiene un doctorado en IA de la Universidad Tecnológica de Viena (Austria). Especializado en Inteligencia Artificial, Aprendizaje Automático, Ciencia de Datos y Visión por Computador, ha realizado importantes contribuciones con publicaciones en revistas científicas de renombre. El Dr. Tehseen también dirigió varios proyectos industriales como investigador principal y se desempeñó como consultor de IA.