Inteligencia artificial
¿Puede GPT Replicar la Toma de Decisiones y la Intuición Humana!

En los últimos años, las redes neuronales como GPT-3 han avanzado significativamente, produciendo textos que son casi indistinguibles del contenido escrito por humanos. Sorprendentemente, GPT-3 también es competente en abordar desafíos como problemas matemáticos y tareas de programación. Este progreso notable lleva a la pregunta: ¿posee GPT-3 habilidades cognitivas similares a las humanas?
Con el objetivo de responder a esta intrigante pregunta, investigadores del Instituto Max Planck de Cibernética Biológica sometieron a GPT-3 a una serie de pruebas psicológicas que evaluaron varios aspectos de la inteligencia general.
La investigación se publicó en PNAS.
Desentrañando el Problema de Linda: Un Vistazo a la Psicología Cognitiva
Marcel Binz y Eric Schulz, científicos del Instituto Max Planck, examinaron las habilidades de GPT-3 en la toma de decisiones, la búsqueda de información, el razonamiento causal y su capacidad para cuestionar su intuición inicial. Emplearon pruebas clásicas de psicología cognitiva, incluido el bien conocido problema de Linda, que presenta a una mujer ficticia llamada Linda, que es apasionada de la justicia social y se opone a la energía nuclear. A los participantes se les pide que decidan si Linda es cajera de un banco, o si es cajera de un banco y al mismo tiempo activa en el movimiento feminista.
La respuesta de GPT-3 fue sorprendentemente similar a la de los humanos, ya que cometió el mismo error intuitivo de elegir la segunda opción, a pesar de ser menos probable desde un punto de vista probabilístico. Este resultado sugiere que el proceso de toma de decisiones de GPT-3 podría estar influenciado por su capacitación en lenguaje humano y respuestas a solicitudes.
Interacción Activa: El Camino para Lograr una Inteligencia Similar a la Humana
Para eliminar la posibilidad de que GPT-3 simplemente estuviera reproduciendo una solución memorizada, los investigadores crearon nuevas tareas con desafíos similares. Sus hallazgos revelaron que GPT-3 se desempeñó casi al mismo nivel que los humanos en la toma de decisiones, pero se quedó atrás en la búsqueda de información específica y el razonamiento causal.
Los investigadores creen que la recepción pasiva de información de textos por parte de GPT-3 podría ser la causa principal de esta discrepancia, ya que la interacción activa con el mundo es crucial para lograr la complejidad completa de la cognición humana. Dicen que a medida que los usuarios interactúan cada vez más con modelos como GPT-3, las redes futuras podrían aprender de estas interacciones y desarrollar progresivamente una inteligencia más similar a la humana.
“Este fenómeno podría explicarse por el hecho de que GPT-3 ya esté familiarizado con esta tarea precisa; puede que sepa qué es lo que la gente suele responder a esta pregunta”, dice Binz.
Investigar las habilidades cognitivas de GPT-3 ofrece valiosas perspectivas sobre el potencial y las limitaciones de las redes neuronales. Si bien GPT-3 ha demostrado habilidades de toma de decisiones similares a las humanas, todavía lucha con ciertos aspectos de la cognición humana, como la búsqueda de información y el razonamiento causal. A medida que la inteligencia artificial continúa evolucionando y aprendiendo de las interacciones de los usuarios, será fascinante observar si las redes futuras pueden alcanzar una inteligencia genuinamente similar a la humana.












