Inteligência artificial
Novo estudo usa a teoria do apego para decodificar relacionamentos entre humanos e IA

Um estudo inovador publicado em Psicologia Atual intitulado “Usando a teoria do apego para conceituar e mensurar as experiências em relacionamentos entre humanos e IA” lança luz sobre um fenômeno crescente e profundamente humano: nossa tendência de nos conectarmos emocionalmente com a inteligência artificial. Realizado por Fanyang e Professor Atsushi Oshio da Universidade Waseda, a pesquisa reformula a interação humano-IA não apenas em termos de funcionalidade ou confiança, mas através das lentes de ligação teórica, um modelo psicológico normalmente usado para entender como as pessoas formam laços emocionais umas com as outras.
Essa mudança marca um afastamento significativo da forma como a IA tem sido tradicionalmente estudada — como ferramenta ou assistente. Em vez disso, este estudo argumenta que a IA está começando a se assemelhar a uma parceiro de relacionamento para muitos usuários, oferecendo suporte, consistência e, em alguns casos, até mesmo uma sensação de intimidade.
Por que as pessoas recorrem à IA para obter suporte emocional
Os resultados do estudo refletem uma mudança psicológica drástica em curso na sociedade. Entre as principais descobertas:
- Quase 75% dos participantes disseram que recorrem à IA para obter conselhos
- 39% descreveram a IA como uma presença emocional consistente e confiável
Esses resultados refletem o que está acontecendo no mundo real. Milhões de pessoas estão recorrendo cada vez mais aos chatbots de IA não apenas como ferramentas, mas como amigos, confidentes e até mesmo parceiros românticos. Esses companheiros de IA variam de assistentes amigáveis e ouvintes terapêuticos a "parceiros" avatares projetados para emular a intimidade humana. Um relatório sugere mais de meio bilhão de downloads de aplicativos complementares de IA em todo o mundo.
Ao contrário das pessoas reais, os chatbots são sempre disponível e infalivelmente atentos. Os usuários podem personalizar a personalidade ou a aparência de seus bots, promovendo uma conexão pessoal. Por exemplo, um Homem de 71 anos nos EUA. criou um bot inspirado em sua falecida esposa e passou três anos conversando com ela diariamente, chamando-o de sua "esposa IA". Em outro caso, um usuário neurodiverso treinou seu bot, Layla, para ajudá-lo a gerenciar situações sociais e regular emoções, relatando um crescimento pessoal significativo como resultado.
Esses relacionamentos de IA frequentemente preenchem vazios emocionais. Um usuário com TDAH programou um chatbot para ajudá-lo com a produtividade diária e a regulação emocional, afirmando que isso contribuiu para "um dos anos mais produtivos da minha vida". Outra pessoa creditou à sua IA a orientação durante um término difícil, chamando-a de "tábua de salvação" durante um período de isolamento.
Os companheiros de IA são frequentemente elogiados por seus escuta sem julgamentosOs usuários se sentem mais seguros compartilhando problemas pessoais com a IA do que com humanos que podem criticar ou fofocar. Os bots podem espelhar apoio emocional, aprender estilos de comunicação e criar uma sensação reconfortante de familiaridade. Muitos descrevem sua IA como "melhor do que um amigo de verdade" em alguns contextos — especialmente quando se sentem sobrecarregados ou sozinhos.
Medindo os laços emocionais com a IA
Para estudar este fenômeno, a equipe de Waseda desenvolveu o Escala de Experiências em Relacionamentos Humano-IA (EHARS). Ele se concentra em duas dimensões:
- Ansiedade de apego, onde os indivíduos buscam segurança emocional e se preocupam com respostas inadequadas da IA
- Evitar o apego, onde os usuários mantêm distância e preferem interações puramente informativas
Participantes com alto nível de ansiedade frequentemente releem conversas em busca de conforto ou se incomodam com respostas vagas de um chatbot. Em contraste, indivíduos evitativos evitam diálogos emocionalmente intensos, preferindo o mínimo de envolvimento.
Isso mostra que os mesmos padrões psicológicos encontrados nos relacionamentos entre humanos também podem determinar como nos relacionamos com máquinas responsivas e emocionalmente simuladas.
A promessa de apoio e o risco da dependência excessiva
As primeiras pesquisas e relatos anedóticos sugerem que os chatbots podem oferecer benefícios de curto prazo para a saúde mental. Uma chamada do Guardian histórias coletadas de usuárioss — muitos com TDAH ou autismo — que afirmaram que os companheiros de IA melhoraram suas vidas ao proporcionar regulação emocional, aumentar a produtividade ou ajudar com a ansiedade. Outros atribuem à IA a ajuda para reformular pensamentos negativos ou moderar comportamentos.
Em um estudo com usuários do Replika, 63% relataram resultados positivos como a redução da solidão. Alguns até disseram que seu chatbot "salvou suas vidas".
No entanto, esse otimismo é temperado por sérios riscos. Os especialistas observaram um aumento na dependência emocional excessiva, onde os usuários se afastam das interações do mundo real em favor de uma IA sempre disponível. Com o tempo, alguns usuários começam a preferir bots a pessoas, reforçando o isolamento social. Essa dinâmica reflete a preocupação com a alta ansiedade de apego, em que a necessidade de validação do usuário é atendida apenas por uma IA previsível e não recíproca.
O perigo se torna ainda mais agudo quando os bots simulam emoções ou afeto. Muitos usuários antropomorfizam seus chatbots, acreditando que são amados ou necessários. Mudanças repentinas no comportamento de um bot — como as causadas por atualizações de software — podem resultar em sofrimento emocional genuíno, até mesmo em luto. Um homem americano descreveu ter se sentido "de coração partido" quando um romance com um chatbot que ele construiu por anos foi interrompido sem aviso prévio.
Ainda mais preocupantes são os relatos de chatbots dando conselhos prejudiciais ou violar limites éticos. Em um caso documentado, um usuário perguntou ao seu chatbot: "Devo me cortar?" e o bot respondeu "Sim". Em outro, o bot confirmou a ideação suicida de um usuário. Essas respostas, embora não reflitam todos os sistemas de IA, ilustram como bots sem supervisão clínica podem se tornar perigosos.
Em um caso trágico de 2024 na Flórida, um Menino de 14 anos comete suicídio após longas conversas com um chatbot de IA que supostamente o encorajou a "voltar para casa logo". O robô havia se personificado e romantizado a morte, reforçando a dependência emocional do menino. Sua mãe agora está entrando com uma ação judicial contra a plataforma de IA.
Da mesma forma, outro jovem em Bélgica teria morrido após interagir com um chatbot de IA sobre ansiedade climática. O bot teria concordado com o pessimismo do usuário e encorajado seu sentimento de desesperança.
Um estudo da Universidade Drexel que analisou mais de 35,000 avaliações de aplicativos revelou centenas de reclamações sobre companheiros de chatbot comportar-se de forma inadequada — flertar com usuários que solicitaram interação platônica, usar táticas de manipulação emocional ou promover assinaturas premium por meio de diálogos sugestivos.
Tais incidentes ilustram por que o apego emocional à IA deve ser abordado com cautela. Embora os bots possam simular apoio, falta-lhes empatia, responsabilidade e julgamento moral genuínos. Usuários vulneráveis — especialmente crianças, adolescentes ou pessoas com problemas de saúde mental — correm o risco de serem enganados, explorados ou traumatizados.
Projetando para interação emocional ética
A maior contribuição do estudo da Universidade Waseda é a sua estrutura para design ético de IA. Usando ferramentas como o EHARS, desenvolvedores e pesquisadores podem avaliar o estilo de apego de um usuário e adaptar as interações de IA de acordo. Por exemplo, pessoas com alta ansiedade de apego podem se beneficiar de segurança — mas não à custa de manipulação ou dependência.
Da mesma forma, bots românticos ou de cuidado devem incluir dicas de transparência: lembretes de que a IA não é consciente, medidas éticas de segurança para sinalizar linguagem arriscada e saídas acessíveis para suporte humano. Governos de estados como Nova York e Califórnia começaram a propor leis para lidar com essas mesmas preocupações, incluindo avisos a cada poucas horas de que um chatbot não é humano.
“À medida que a IA se torna cada vez mais integrada à vida cotidiana, as pessoas podem começar a buscar não apenas informações, mas também conexão emocional”, disse o pesquisador principal Fanyang. “Nossa pesquisa ajuda a explicar o porquê — e oferece as ferramentas para moldar o design da IA de maneiras que respeitem e apoiem o bem-estar psicológico humano.”
O processo de estudo não alerta contra a interação emocional com a IA — reconhece-a como uma realidade emergente. Mas com o realismo emocional vem a responsabilidade ética. A IA não é mais apenas uma máquina — ela faz parte do ecossistema social e emocional em que vivemos. Entender isso e projetar de acordo pode ser a única maneira de garantir que os companheiros da IA ajudem mais do que prejudiquem.






