Líderes de opinión
Pensar como un ser humano: ¿Puede el IA desarrollar razonamiento analógico?

Cuando se enfrentan a algo nuevo, los seres humanos instintivamente buscan comparaciones. Un niño que aprende sobre átomos puede escuchar que los electrones orbitan el núcleo “como los planetas orbitan el sol”. Un empresario puede presentar su startup como “Uber para peluquería de mascotas”. Un científico puede decirle a una audiencia no especializada que el cerebro procesa la información “como una computadora”.
Este salto mental – ver cómo una cosa se asemeja a otra en su estructura más profunda – se llama razonamiento analógico. Y puede ser el ingrediente que separa la inteligencia humana del IA en su forma actual. Si vamos a desarrollar alguna vez la Inteligencia Artificial General – el Santo Grial del IA que hasta ahora ha resultado esquivo – debemos averiguar si es siquiera posible que las máquinas aprendan a pensar analógicamente. Las apuestas no podrían ser más altas. Si la respuesta es “No”, entonces incluso los sistemas de IA más sofisticados permanecerán para siempre como nada más que calculadoras glorificadas. No podrán resolver problemas que requieran más que una reorganización de los datos en los que se han entrenado.
La arquitectura de la comprensión
El razonamiento analógico funciona a nivel de similitudes estructurales, más que de similitudes de superficie. Por ejemplo, ¿qué hace que los corazones y las bombas de agua sean similares? Ciertamente no su apariencia física. Es el hecho de que ambos realizan la misma función, a saber, circular fluido a través de un sistema. Y es precisamente esta capacidad para mapear relaciones típicas en un contexto hacia otro contexto lo que hace que el aprendizaje humano, la creatividad y la resolución de problemas sean tan únicos.
No hay escasez de ejemplos en el mundo real. Tomemos a August Kekulé, el brillante químico alemán, que recibió una pista sobre la estructura del benceno en la forma de un sueño en el que vio una serpiente mordiéndose la cola. Hoy en día, los programadores aplican lecciones de organizar una cocina cuando estructuran código, y los maestros explican la corriente eléctrica comparándola con el agua que fluye a través de tuberías.
Sin embargo, los sistemas de IA actuales encuentran esta habilidad cognitiva común muy difícil. Cuando se les solicita, los modelos de lenguaje grande (LLM) modernos están más que felices de explicar por qué “el tiempo es dinero”, o de completar rompecabezas de razonamiento verbal. Pero la evidencia creciente sugiere que a menudo están participando en un emparejamiento de patrones sofisticado, más que en un mapeo estructural genuino. Cuando los investigadores presentan estos modelos con problemas analógicos nuevos que se desvían de sus datos de entrenamiento, el rendimiento a menudo se desploma. Esto se debe a que los LLM excelan en reproducir analogías que han visto antes, pero tropiezan cuando se les pide que forjen nuevas conexiones.
No hay razonamiento analógico, no hay IA general
Evidentemente, el razonamiento analógico es el sine qua non de la IA general. Sin él, los sistemas de IA permanecen frágiles, incapaces de adaptar el conocimiento que es relevante en un dominio para resolver problemas en otro. Por ejemplo, imagine un coche autónomo que ha aprendido a navegar por las calles soleadas de California pero no puede extrapolar ese aprendizaje para manejar condiciones nevadas. El sistema de IA del coche es un costoso emparejador de patrones, no un sistema capaz de inteligencia genuina. La verdadera inteligencia requeriría la flexibilidad cognitiva para reconocer que conducir en carreteras resbalosas es estructuralmente comparable a otros escenarios de superficies resbalosas, incluso si los detalles difieren.
El mismo principio se aplica en dominios más allá de los vehículos autónomos, por supuesto. El pensamiento analógico también impulsa el progreso en la ciencia, el diagnóstico médico, el razonamiento legal y las empresas creativas. Los sistemas de IA sin esta capacidad se asemejan a un erudito que ha memorizado una biblioteca entera pero no puede sintetizar ese conocimiento a través de disciplinas. Impresionante, seguro, pero solo de una manera limitada.
Construyendo la mente analógica
Entonces, ¿qué se necesitaría para desarrollar sistemas de IA capaces de razonamiento analógico similar al humano? Basado en la investigación emergente y la naturaleza fundamental del pensamiento analógico, varias condiciones y técnicas críticas parecen ser necesarias.
Datos de entrenamiento ricos y diversos en términos estructurales
El primer requisito es tener sistemas de IA entrenados en datos que vayan más allá de los patrones de texto de superficie. Internet, con su vasto repositorio de artículos científicos, documentación técnica, obras creativas y contenido explicativo, es un buen punto de partida. Pero no cualquier dato de internet servirá. Lo que se requiere es diversidad estructural. En otras palabras, para guiar a los sistemas de IA hacia el aprendizaje de reconocer patrones abstractos, los desarrolladores deberían comenzar a exponerlos a contrastes desde el primer día de entrenamiento. Sus datos de entrenamiento podrían presentar planos arquitectónicos junto con partituras musicales, pruebas matemáticas junto con poesía, o argumentos legales junto con recetas de cocina. Dado que cada dominio encarna diferentes tipos de estructuras relacionales, un sistema de IA general en ciernes se beneficiaría de este tipo de ejercicio.
Más importante aún, estos datos necesitan preservar y resaltar las relaciones estructurales, no solo las correlaciones estadísticas. Gráficos de conocimiento, diagramas causales y relaciones entre conceptos explícitamente mapeadas podrían ayudar a los sistemas de IA a aprender a “ver” la estructura en lugar de memorizar asociaciones de manera mecánica. Piense en ello como enseñar a la IA no solo qué son las cosas, sino cómo se relacionan entre sí de manera principiada.
Pruebas más allá del conjunto de entrenamiento
Para asegurarse de que los sistemas de IA estén aprendiendo a razonar analógicamente, y no simplemente mejorando sus habilidades de imitación, necesitamos herramientas que deliberadamente prueben su capacidad para mapear estructuras en situaciones que nunca han encontrado antes. Esto implica construir problemas de prueba que son intencionalmente disímiles de cualquier cosa que pueda aparecer en los datos de entrenamiento – lo que los investigadores llaman tareas “contrafácticas”.
Por ejemplo, en lugar de pedirle a un IA que complete analogías estándar como “puppy es a perro como gatito es a ____”, podríamos presentarle problemas que utilicen conceptos inventados o pedirle que mapee relaciones entre dominios que nunca ha visto conectados. ¿Puede reconocer que la relación entre ingredientes y una receta es paralela a la relación entre evidencia y un argumento legal, incluso si nunca ha encontrado esa comparación específica? Estas pruebas revelarían si el sistema comprende estructuras subyacentes o simplemente recuerda ejemplos similares.
Medir lo que importa
La buena noticia para los desarrolladores de IA es que hay décadas de investigación en ciencia cognitiva que trata específicamente con cómo los humanos procesan analogías. Pueden utilizar esta investigación para desarrollar benchmarks robustos para el razonamiento analógico. Sin embargo, estos benchmarks deben ir más allá de simplemente contar las respuestas correctas en pruebas de analogía. Lo que realmente se necesita son métricas que capturen si los sistemas de IA pueden identificar qué relaciones son relevantes para mapear, mientras ignoran las similitudes superficiales y mantienen la consistencia a través de sus mapeos.
Esto podría involucrar sistemas de puntuación que recompensen la identificación de relaciones de alto orden. Por ejemplo, un IA obtendrá una puntuación más alta si puede reconocer no solo que los átomos y los sistemas solares involucran órbitas, sino también entender las relaciones causales que gobiernan esas órbitas. Otra competencia para evaluar podría ser si el IA puede generar espontáneamente analogías apropiadas para explicar conceptos nuevos, no solo completar problemas de analogía preestructurados.
Andamiaje a través de la solicitud
La investigación reciente sugiere que la capacidad del IA para pensar analógicamente depende en gran medida de cómo se le solicita que lo haga. La solicitud analógica – guiando explícitamente a los modelos a través del proceso de mapeo estructural – puede provocar un razonamiento más sofisticado que simplemente presentar problemas fríos. Esto podría involucrar primero pedirle al sistema que identifique relaciones en un dominio de origen, y luego solicitar explícitamente que mapee esas relaciones en un dominio de destino.
Esta técnica podría servir a dos propósitos: mejorar las capacidades analógicas de los sistemas de IA actuales, mientras también genera datos de entrenamiento para modelos futuros. Al registrar instancias exitosas de razonamiento analógico guiado, se pueden crear ejemplos que pueden enseñar a sistemas posteriores a participar en este proceso de manera más natural.
Arquitecturas híbridas
Lograr un razonamiento analógico similar al humano puede requerir ir más allá de los enfoques de redes neuronales puras. Los sistemas híbridos que combinan el reconocimiento de patrones con el razonamiento simbólico – representando y manipulando relaciones estructurales de manera explícita – podrían proporcionar el elemento que falta. Mientras que las redes neuronales excelan en el aprendizaje de patrones implícitos, los sistemas simbólicos pueden hacer cumplir la consistencia estructural y el mapeo lógico que el razonamiento analógico exige.
Las arquitecturas híbridas aún están en su infancia, pero los investigadores están explorando activamente su potencial. Algunos, por ejemplo, argumentan a favor de combinar redes neuronales con razonamiento simbólico que podría conducir a capacidades analógicas mejoradas. Otros promueven modelos híbridos construidos para abordar la tendencia de los modelos de IA a confabular y pensar analógicamente de una manera superficial.
¿Qué sigue?
Dependiendo de a quién se le pregunte, el razonamiento analógico ya está emergiendo o los IA simplemente están mejorando en su imitación. Cualquiera que sea la posición más cercana a la verdad, está claro que, si el sueño de la IA general se ha de realizar, tomará más que solo modelos más grandes o más datos. También requerirá algunas innovaciones fundamentales en cómo estructuramos, entrenamos y evaluamos nuestros sistemas de IA.
A medida que se despliegan las capacidades transformadoras de la IA, el razonamiento analógico llega a representar tanto un benchmark crítico para el rendimiento como un recordatorio sobrio de la brecha entre las capacidades actuales de la IA y la cognición humana genuina. Cuando un sistema de IA pueda ver que la democracia es para los ciudadanos lo que la orquesta es para los músicos – reconociendo no las características de superficie, sino las relaciones estructurales profundas sobre coordinación, representación y armonía emergente – habrá cruzado un umbral crucial hacia la verdadera inteligencia.












