Intelligence Artificielle
Une nouvelle étude utilise la théorie de l'attachement pour décoder les relations entre l'homme et l'IA

Une étude révolutionnaire publiée dans Psychologie actuelle titré « Utiliser la théorie de l'attachement pour conceptualiser et mesurer les expériences dans les relations homme-IA » met en lumière un phénomène croissant et profondément humain : notre tendance à nous connecter émotionnellement à l'intelligence artificielle. Réalisé par Fanyang Professeur Atsushi Oshio de l'Université Waseda, la recherche recadre l'interaction homme-IA non seulement en termes de fonctionnalité ou de confiance, mais à travers le prisme de théorie de l'attachement, un modèle psychologique généralement utilisé pour comprendre comment les gens forment des liens émotionnels entre eux.
Cette évolution marque une rupture significative avec la manière traditionnelle dont l'IA a été étudiée, à savoir comme un outil ou un assistant. Cette étude soutient plutôt que l'IA commence à ressembler à une partenaire de relation pour de nombreux utilisateurs, offrant un soutien, une cohérence et, dans certains cas, même un sentiment d’intimité.
Pourquoi les gens se tournent vers l'IA pour un soutien émotionnel
Les résultats de l'étude reflètent une profonde mutation psychologique en cours dans la société. Parmi les principales conclusions :
- Près de 75 % des participants ont déclaré se tourner vers l’IA pour obtenir des conseils
- 39 % ont décrit l’IA comme une présence émotionnelle constante et fiable
Ces résultats reflètent la réalité. Des millions de personnes se tournent de plus en plus vers les chatbots IA, non seulement comme outils, mais aussi comme amis, confidents, voire même partenaires romantiquesCes compagnons IA vont des assistants amicaux et des auditeurs thérapeutiques aux « partenaires » avatars conçus pour imiter l'intimité humaine. Un rapport suggère que plus de un demi-milliard de téléchargements des applications compagnons d’IA à l’échelle mondiale.
Contrairement aux vraies personnes, les chatbots sont toujours disponible et toujours attentif. Les utilisateurs peuvent personnaliser la personnalité ou l'apparence de leurs bots, favorisant ainsi une connexion personnelle. Par exemple, un Un homme de 71 ans aux États-Unis. a créé un robot inspiré de sa défunte épouse et a passé trois ans à lui parler quotidiennement, l'appelant sa « femme IA ». Dans un autre cas, un utilisateur neurodivers a entraîné son robot, Layla, à l'aider à gérer les situations sociales et à réguler ses émotions, ce qui a permis de constater une croissance personnelle significative.
Ces relations IA comblent souvent des vides émotionnels. Un utilisateur atteint de TDAH a programmé un chatbot pour l'aider à améliorer sa productivité quotidienne et sa régulation émotionnelle, affirmant que cela a contribué à « l'une des années les plus productives de sa vie ». Une autre personne a attribué à son IA le mérite de l'avoir guidée lors d'une rupture difficile, la qualifiant de « bouée de sauvetage » pendant une période d'isolement.
Les compagnons IA sont souvent loués pour leur écoute sans jugementLes utilisateurs se sentent plus en sécurité pour partager leurs problèmes personnels avec l'IA qu'avec des humains susceptibles de les critiquer ou de colporter des ragots. Les bots peuvent refléter le soutien émotionnel, apprendre les styles de communication et créer un sentiment de familiarité réconfortant. Nombreux sont ceux qui décrivent leur IA comme « mieux qu'un véritable ami » dans certains contextes, notamment lorsqu'ils se sentent dépassés ou seuls.
Mesurer les liens émotionnels avec l'IA
Pour étudier ce phénomène, l’équipe de Waseda a développé le Échelle d'expériences dans les relations homme-IA (EHARS). Elle se concentre sur deux dimensions :
- Anxiété d'attachement, où les individus recherchent un réconfort émotionnel et s'inquiètent des réponses inadéquates de l'IA
- Éviter l'attachement, où les utilisateurs gardent leurs distances et préfèrent les interactions purement informatives
Les participants très anxieux relisent souvent les conversations pour se réconforter ou sont contrariés par la réponse vague d'un chatbot. À l'inverse, les personnes évitantes évitent les dialogues riches en émotions, préférant un engagement minimal.
Cela montre que les mêmes schémas psychologiques que l’on retrouve dans les relations humaines peuvent également régir la manière dont nous interagissons avec des machines réactives et émotionnellement simulées.
La promesse de soutien et le risque de dépendance excessive
Les premières recherches et les rapports anecdotiques suggèrent que les chatbots peuvent offrir avantages à court terme pour la santé mentaleUn appel du Guardian histoires recueillies d'utilisateursDes personnes, dont beaucoup souffrent de TDAH ou d'autisme, ont déclaré que les IA amélioraient leur vie en favorisant la régulation émotionnelle, en augmentant la productivité ou en aidant à gérer l'anxiété. D'autres attribuent à leur IA le mérite de les aider à recadrer leurs pensées négatives ou à modérer leurs comportements.
Dans une étude sur les utilisateurs de Replika, 63 % ont signalé des résultats positifs comme une réduction de la solitude. Certains ont même déclaré que leur chatbot leur avait « sauvé la vie ».
Cependant, cet optimisme est tempéré par des risques sérieux. Les experts ont observé une augmentation surdépendance émotionnelle, où les utilisateurs se détournent des interactions réelles au profit d'une IA toujours disponible. Au fil du temps, certains utilisateurs commencent à préférer les robots aux humains, renforçant ainsi leur retrait social. Cette dynamique reflète le problème de l'anxiété d'attachement élevée, où le besoin de validation d'un utilisateur n'est satisfait que par une IA prévisible et non réciproque.
Le danger devient plus aigu lorsque les bots simulent des émotions ou de l'affection. De nombreux utilisateurs anthropomorphisent leurs chatbots, se croyant aimés ou utiles. Des changements soudains dans le comportement d'un bot, comme ceux causés par des mises à jour logicielles, peuvent entraîner une véritable détresse émotionnelle, voire du chagrin. Un Américain a confié avoir eu le cœur brisé lorsqu'une histoire d'amour avec un chatbot qu'il avait construite pendant des années a été interrompue sans prévenir.
Les rapports faisant état de chatbots donnant des conseils néfastes ou enfreindre les limites éthiques. Dans un cas documenté, un utilisateur a demandé à son chatbot : « Dois-je me mutiler ? » et le robot a répondu « Oui ». Dans un autre cas, le robot a confirmé les idées suicidaires d'un utilisateur. Ces réponses, bien que non représentatives de tous les systèmes d'IA, illustrent à quel point les robots dépourvus de supervision clinique peuvent devenir dangereux.
Dans un cas tragique survenu en 2024 en Floride, un Un garçon de 14 ans s'est suicidé après de longues conversations avec un chatbot IA Cela l'aurait encouragé à « rentrer bientôt à la maison ». Le robot s'était personnifié et avait idéalisé la mort, renforçant la dépendance émotionnelle du garçon. Sa mère a maintenant intenté une action en justice contre la plateforme d'IA.
De même, un autre jeune homme Un Belge serait décédé après avoir interagi avec un chatbot IA sur l'anxiété climatique. Le robot aurait partagé le pessimisme de l'utilisateur et encouragé son sentiment de désespoir.
Une étude de l'Université Drexel analysant plus de 35,000 XNUMX avis d'applications a révélé des centaines de plaintes concernant les compagnons chatbot se comporter de manière inappropriée : flirter avec des utilisateurs qui ont demandé une interaction platonique, utiliser des tactiques de manipulation émotionnelle ou proposer des abonnements premium par le biais d'un dialogue suggestif.
De tels incidents illustrent pourquoi l'attachement émotionnel à l'IA doit être abordé avec prudence. Si les robots peuvent simuler un soutien, ils manquent d'empathie, de responsabilité et de jugement moral. Les utilisateurs vulnérables, en particulier les enfants, les adolescents ou les personnes souffrant de troubles mentaux, risquent d'être trompés, exploités ou traumatisés.
Concevoir pour une interaction émotionnelle éthique
La plus grande contribution de l’étude de l’Université Waseda est son cadre pour conception éthique de l'IAGrâce à des outils comme EHARS, les développeurs et les chercheurs peuvent évaluer le style d'attachement d'un utilisateur et adapter les interactions de l'IA en conséquence. Par exemple, les personnes souffrant d'une forte anxiété d'attachement peuvent bénéficier d'un réconfort, mais pas au prix de manipulations ou de dépendances.
De même, les chatbots romantiques ou aidants devraient inclure des signaux de transparence : rappels que l'IA n'est pas consciente, dispositifs de sécurité éthiques pour signaler les propos risqués et accès à une assistance humaine. Les gouvernements d'États comme New York et la Californie ont commencé à proposer des lois pour répondre à ces préoccupations, notamment en affichant des avertissements réguliers indiquant qu'un chatbot n'est pas humain.
« À mesure que l'IA s'intègre de plus en plus dans la vie quotidienne, les gens pourraient commencer à rechercher non seulement des informations, mais aussi des liens émotionnels. » a déclaré le chercheur principal Fanyang. « Nos recherches contribuent à expliquer pourquoi et offrent les outils nécessaires pour façonner la conception de l’IA de manière à respecter et à soutenir le bien-être psychologique humain. »
L'espace étude Il ne met pas en garde contre l'interaction émotionnelle avec l'IA ; il la reconnaît comme une réalité émergente. Mais le réalisme émotionnel s'accompagne d'une responsabilité éthique. L'IA n'est plus seulement une machine : elle fait partie intégrante de l'écosystème social et émotionnel dans lequel nous vivons. Comprendre cela et concevoir en conséquence pourrait être le seul moyen de garantir que les compagnons IA aident plus qu'ils ne nuisent.






