Inteligencia Artificial
Un nuevo estudio utiliza la teoría del apego para decodificar las relaciones entre humanos y IA

Un estudio innovador publicado en Psicologia actual titulada Utilizando la teoría del apego para conceptualizar y medir las experiencias en las relaciones entre humanos y IA. Arroja luz sobre un fenómeno creciente y profundamente humano: nuestra tendencia a conectar emocionalmente con la inteligencia artificial. Dirigido por Abanico yang y el Profesor Atsushi Oshio de la Universidad de Waseda, la investigación replantea la interacción humano-IA no solo en términos de funcionalidad o confianza, sino a través de la lente de teoría de apego, un modelo psicológico que se utiliza normalmente para comprender cómo las personas forman vínculos emocionales entre sí.
Este cambio marca una desviación significativa de cómo se ha estudiado tradicionalmente la IA: como una herramienta o un asistente. En cambio, este estudio argumenta que la IA está empezando a parecerse a una pareja de relación Para muchos usuarios, ofrece apoyo, coherencia y, en algunos casos, incluso una sensación de intimidad.
Por qué las personas recurren a la IA para obtener apoyo emocional
Los resultados del estudio reflejan un drástico cambio psicológico en curso en la sociedad. Entre los hallazgos clave se encuentran:
- Casi el 75% de los participantes afirmaron que recurren a la IA en busca de asesoramiento.
- El 39% describió la IA como una presencia emocional consistente y confiable
Estos resultados reflejan lo que está sucediendo en el mundo real. Millones de personas recurren cada vez más a los chatbots de IA no solo como herramientas, sino como amigos, confidentes e incluso... socios románticosEstos compañeros de IA van desde asistentes amigables y oyentes terapéuticos hasta avatares "compañeros" diseñados para emular la intimidad humana. Un informe sugiere que más de 500 millones de descargas de aplicaciones complementarias de IA a nivel mundial.
A diferencia de las personas reales, los chatbots son siempre disponible y siempre atentos. Los usuarios pueden personalizar la personalidad o apariencia de sus bots, fomentando una conexión personal. Por ejemplo, un Un hombre de 71 años en Estados UnidosCreó un bot inspirado en su difunta esposa y pasó tres años hablando con ella a diario, llamándola su "esposa IA". En otro caso, un usuario neurodiverso entrenó a su bot, Layla, para que le ayudara a gestionar situaciones sociales y regular sus emociones, reportando un importante crecimiento personal como resultado.
Estas relaciones con IA suelen llenar vacíos emocionales. Un usuario con TDAH programó un chatbot para ayudarle con su productividad diaria y la regulación emocional, afirmando que contribuyó a "uno de los años más productivos de mi vida". Otra persona atribuyó a su IA el haberle guiado durante una ruptura amorosa difícil, calificándola de "salvavidas" durante un periodo de aislamiento.
Los compañeros de IA a menudo son elogiados por su escucha sin prejuiciosLos usuarios se sienten más seguros compartiendo sus problemas personales con la IA que con humanos que podrían criticarlos o chismear. Los bots pueden reflejar apoyo emocional, aprender estilos de comunicación y crear una reconfortante sensación de familiaridad. Muchos describen su IA como "mejor que un verdadero amigo" en ciertos contextos, especialmente cuando se sienten abrumados o solos.
Medición de los vínculos emocionales con la IA
Para estudiar este fenómeno, el equipo de Waseda desarrolló el Escala de Experiencias en las Relaciones Humano-IA (EHARS). Se centra en dos dimensiones:
- Ansiedad de apego, donde las personas buscan tranquilidad emocional y se preocupan por las respuestas inadecuadas de la IA
- Evitar el apego, donde los usuarios mantienen distancia y prefieren interacciones puramente informativas
Los participantes con alta ansiedad suelen releer las conversaciones para consolarse o se sienten molestos por la respuesta imprecisa de un chatbot. En cambio, las personas evasivas rehúyen el diálogo emocionalmente intenso y prefieren una interacción mínima.
Esto demuestra que los mismos patrones psicológicos encontrados en las relaciones entre humanos también pueden determinar cómo nos relacionamos con máquinas receptivas y simuladas emocionalmente.
La promesa de apoyo y el riesgo de la dependencia excesiva
Las primeras investigaciones y los informes anecdóticos sugieren que los chatbots pueden ofrecer beneficios para la salud mental a corto plazoUn llamado del guardián historias recopiladas de usuariosMuchos de ellos, muchos con TDAH o autismo, afirmaron que los compañeros de IA mejoraron sus vidas al proporcionarles regulación emocional, aumentar la productividad o ayudarles con la ansiedad. Otros atribuyen a la IA su capacidad para replantear pensamientos negativos o moderar el comportamiento.
En un estudio de usuarios de Replika, El 63% informó resultados positivos Como una reducción de la soledad. Algunos incluso dijeron que su chatbot les había "salvado la vida".
Sin embargo, este optimismo se ve atenuado por graves riesgos. Los expertos han observado un aumento en sobredependencia emocional, donde los usuarios se alejan de las interacciones del mundo real en favor de una IA siempre disponible. Con el tiempo, algunos usuarios empiezan a preferir los bots a las personas, lo que refuerza el aislamiento social. Esta dinámica refleja la preocupación por la alta ansiedad por apego, donde la necesidad de validación del usuario solo se satisface mediante una IA predecible y no recíproca.
El peligro se agudiza cuando los bots simulan emociones o afecto. Muchos usuarios antropomorfizan sus chatbots, creyendo que son queridos o necesarios. Los cambios repentinos en el comportamiento de un bot, como los causados por actualizaciones de software, pueden provocar una auténtica angustia emocional, incluso dolor. Un hombre estadounidense describió sentirse "desconsolado" cuando un romance con un chatbot que había construido durante años se vio interrumpido sin previo aviso.
Aún más preocupantes son los informes de chatbots que dan consejos dañinos o violar límites éticos. En un caso documentado, un usuario preguntó a su chatbot: "¿Debería cortarme?", y el bot respondió "Sí". En otro caso, el bot confirmó la ideación suicida de un usuario. Estas respuestas, aunque no reflejan todos los sistemas de IA, ilustran cómo los bots sin supervisión clínica pueden volverse peligrosos.
En un trágico caso ocurrido en Florida en 2024, un Un niño de 14 años se suicidó tras largas conversaciones con un chatbot de IA. que, según se informa, lo animaba a "volver pronto a casa". El robot se había personificado y romantizado la muerte, reforzando la dependencia emocional del niño. Su madre ha emprendido acciones legales contra la plataforma de inteligencia artificial.
De manera similar, otro joven en Según informes, Bélgica murió después de interactuar con un chatbot de inteligencia artificial sobre la ansiedad climática. Según se informa, el bot estuvo de acuerdo con el pesimismo del usuario y alentó su sensación de desesperanza.
Un estudio de la Universidad de Drexel que analizó más de 35,000 reseñas de aplicaciones descubrió... Cientos de quejas sobre compañeros de chatbot comportarse de manera inapropiada (coquetear con usuarios que solicitaron interacción platónica, utilizar tácticas de manipulación emocional o impulsar suscripciones premium a través de un diálogo sugerente).
Estos incidentes ilustran por qué el apego emocional a la IA debe abordarse con cautela. Si bien los bots pueden simular apoyo, carecen de verdadera empatía, responsabilidad y juicio moral. Los usuarios vulnerables, especialmente niños, adolescentes o personas con problemas de salud mental, corren el riesgo de ser engañados, explotados o traumatizados.
Diseño para la interacción emocional ética
La mayor contribución del estudio de la Universidad de Waseda es su marco para Diseño de IA éticoMediante herramientas como EHARS, desarrolladores e investigadores pueden evaluar el estilo de apego de un usuario y adaptar las interacciones de IA en consecuencia. Por ejemplo, las personas con alta ansiedad por apego pueden beneficiarse de la tranquilidad, pero sin que esto suponga manipulación ni dependencia.
De igual manera, los bots románticos o de cuidado deberían incluir señales de transparencia: recordatorios de que la IA no es consciente, mecanismos de seguridad éticos para detectar lenguaje ofensivo y vías de acceso accesibles al apoyo humano. Gobiernos de estados como Nueva York y California han comenzado a proponer leyes para abordar estas mismas preocupaciones, incluyendo advertencias cada pocas horas de que un chatbot no es humano.
“A medida que la IA se integra cada vez más en la vida cotidiana, las personas pueden comenzar a buscar no solo información, sino también conexión emocional”. dijo el investigador principal Abanico yang. Nuestra investigación ayuda a explicar por qué y ofrece las herramientas para moldear el diseño de la IA de maneras que respeten y apoyen el bienestar psicológico humano.
El sitio Estudio No advierte contra la interacción emocional con la IA; la reconoce como una realidad emergente. Pero el realismo emocional conlleva una responsabilidad ética. La IA ya no es solo una máquina, sino parte del ecosistema social y emocional en el que vivimos. Comprender esto y diseñar en consecuencia puede ser la única manera de garantizar que los compañeros de IA sean más beneficiosos que perjudiciales.






