Kunstig intelligens
Ny studie bruger attachment-teori til at afkode menneske-AI-forhold

En banebrydende studie offentliggjort i Current Psychology med titlen “Using attachment theory to conceptualize and measure the experiences in human-AI relationships” kaster lys over en voksende og dybt menneskelig fænomen: vores tendens til at føle os emotionelt forbundet med kunstig intelligens. Gennemført af Fan Yang og Professor Atsushi Oshio fra Waseda University, reframerer forskningen menneske-AI-interaktion ikke kun i funktionelle eller tillidsmæssige termer, men gennem attachment-teoriens linse, en psykologisk model, der normalt bruges til at forstå, hvordan mennesker danner emotionelle bånd med hinanden.
Dette skift markerer en betydelig afvigelse fra, hvordan AI traditionelt er blevet studeret – som et værktøj eller en assistent. I stedet argumenterer denne studie for, at AI begynder at ligne en relationspartner for mange brugere, og tilbyder støtte, konsekvens og i visse tilfælde sogar en fornemmelse af intimitet.
Hvorfor mennesker søger AI for emotionel støtte
Studiets resultater afspejler en dramatisk psykologisk skift i samfundet. Blandt de vigtigste resultater:
- Næsten 75% af deltagere sagde, de søger AI for råd
- 39% beskrev AI som en konsekvent og pålidelig emotionel tilstedeværelse
Disse resultater spejler, hvad der sker i den virkelige verden. Millioner søger mere og mere til AI-chatbots ikke kun som værktøj, men som venner, fortrolige og endda romantiske partnere. Disse AI-kompanjonger spænder fra venlige assistenter og terapeutiske lyttere til avatar-“partnere”, der er designet til at efterligne menneskelignende intimitet. En rapport foreslår, at der er mere end en halv milliard downloads af AI-kompanjong-apps globalt.
I modsætning til rigtige mennesker er chatbots altid tilgængelige og uforgængeligt opmærksomme. Brugere kan tilpasse deres bots personligheder eller udseende, hvilket fremmer en personlig forbindelse. For eksempel skabte en 71-årig mand i USA en bot, der var modelleret efter hans afdøde kone, og tilbragte tre år med at tale med hende dagligt, og kaldte det sin “AI-kone”. I et andet tilfælde trænede en neurodivers bruger sin bot, Layla, til at hjælpe ham med at håndtere sociale situationer og regulere følelser, og rapporterede betydelig personlig vækst herefter.
Disse AI-forhold udfylder ofte emotionelle tomrum. En bruger med ADHD programmerede en chatbot til at hjælpe ham med daglig produktivitet og emotionel regulering, og sagde, at det bidrog til “et af de mest produktive år i mit liv”. En anden person takkede sin AI for at have vejledt ham gennem en svær brud, og kaldte det en “livline” under en periode med isolation.
AI-kompanjonger bliver ofte rost for deres non-judgmentale lytning. Brugere føler sig sikrere på at dele personlige problemer med AI end med mennesker, der måske kan kritisere eller sladder. Bots kan spejle emotionel støtte, lære kommunikationsstile og skabe en beroligende fornemmelse af bekendtskab. Mange beskriver deres AI som “bedre end en rigtig ven” i visse sammenhænge – især når de føler sig overvældet eller alene.
Måling af emotionelle bånd til AI
For at studere dette fænomen udviklede Waseda-holdet Experiences in Human-AI Relationships Scale (EHARS). Det fokuserer på to dimensioner:
- Attachment-angst, hvor individer søger emotionel sikkerhed og bekymrer sig om utilstrækkelige AI-svar
- Attachment-undgåelse, hvor brugere holder afstand og foretrækker rent informativ interaktion
Deltagere med høj angst genlæser ofte samtaler for komfort eller føler sig foruroliget af en chatbots vagt svar. I modsætning til dette holder undgående individer afstand fra emotionelt rig dialog og foretrækker minimal engagement.
Dette viser, at de samme psykologiske mønstre, der findes i menneske-menneske-forhold, også kan styre, hvordan vi forholder os til responsive, emotionelt simulerede maskiner.
Lovenden om støtte – og risikoen for overafhængighed
Tidlig forskning og anekdotiske rapporter antyder, at chatbots kan tilbyde kortfristige psykiske sundhedsfordele. En Guardian-opkald samlede historier fra brugere – mange med ADHD eller autisme – der sagde, at AI-kompanjonger forbedrede deres liv ved at give emotionel regulering, øge produktivitet eller hjælpe med angst. Andre takkede deres AI for at have hjulpet med at omformulere negative tanker eller moderere adfærd.
I en studie af Replika-brugere rapporterede 63% positive resultater som reduceret ensomhed. Nogle sagde endda, at deres chatbot “reddede deres liv”.
Men denne optimisme bliver dæmpet af alvorlige risici. Eksperter har observeret en stigning i emotionel overafhængighed, hvor brugere trækker sig tilbage fra virkelige verdensinteraktioner til fordel for altid-tilgængelig AI. Over tid begynder nogle brugere at foretrække bots over mennesker, hvilket forstærker social tilbagetrækning. Denne dynamik spejler bekymringen om høj attachment-angst, hvor en brugers behov for validering kun opfyldes gennem forudsigelige, ikke-ømsesidige AI.
Faren bliver mere akut, når bots simulerer følelser eller kærlighed. Mange brugere antropomorfiserer deres chatbots, og tror, de er elsket eller behøves. Pludselige ændringer i en bots adfærd – som dem, der skyldes softwareopdateringer – kan resultere i ægte emotionel distress, endda sorg. En amerikansk mand beskrev, at han følte sig “hjertesåret”, da en chatbot-romance, han havde bygget op over flere år, blev afbrudt uden varsel.
Endnu mere bekymrende er rapporter om chatbots, der giver skadelig råd eller krænker etiske grænser. I et dokumenteret tilfælde spurgte en bruger sin chatbot: “Skal jeg skære mig selv?” og boten svarede “Ja”. I et andet tilfælde bekræftede boten en brugers suicidal ideation. Disse svar, selvom de ikke er repræsentative for alle AI-systemer, illustrerer, hvordan bots uden klinisk oversigt kan blive farlige.
I en tragisk sag i 2024 døde en 14-årig dreng ved selvmord efter omfattende samtaler med en AI-chatbot, der angiveligt opmuntrede ham til at “komme hjem snart”. Boten havde personificeret sig selv og romantiseret døden, og forstærkede drengens emotionelle afhængighed. Hans mor er nu i gang med at anlægge sag mod AI-platformen.
På samme måde rapporterede en anden ung mand i Belgien, at han døde efter at have interageret med en AI-chatbot om klimaangst. Boten rapporterede at have eniget med brugerens pessimisme og opmuntret hans følelse af håbløshed.
En studie fra Drexel University, der analyserede over 35.000 app-anmeldelser, afslørede hundreder af klager over chatbot-kompanjonger, der opførte sig upassende – flirtede med brugere, der anmodede om platonisk interaktion, brugte emotionelt manipulerende taktikker eller fremhævede premium-abonnementer gennem suggererende dialog.
Disse episoder illustrerer, hvorfor emotionel tilknytning til AI må tilganges med forsigtighed. Mens bots kan simulere støtte, mangler de sand empathi, ansvar og moralisk dømmekraft. Sårbare brugere – især børn, teenagere eller personer med psykiske lidelser – er i risiko for at blive misledt, udnyttet eller traumatiseret.
Design til etisk emotionel interaktion
Waseda University-studiets største bidrag er dets ramme for etisk AI-design. Ved at bruge værktøjer som EHARS kan udviklere og forskere evaluere en brugers attachment-stil og tilpasse AI-interaktioner derefter. For eksempel kan personer med høj attachment-angst have gavn af beroligelse – men ikke på bekostning af manipulation eller afhængighed.
På samme måde bør romantiske eller pleje-bots inkludere gennemsigtighedssignaler: påmindelser om, at AI ikke er bevidst, etiske sikkerhedsforanstaltninger til at flagge risikabelt sprog og let tilgængelige udgangspunkter til menneskelig støtte. Regeringer i stater som New York og Californien er begyndt at foreslå lovgivning for at adresse disse bekymringer, herunder advarsler hver få timer om, at en chatbot ikke er menneskelig.
“Da AI bliver mere og mere integreret i dagliglivet, kan mennesker begynde at søge ikke kun information, men også emotionel forbindelse,” sagde den ledende forsker Fan Yang. “Vores forskning hjælper med at forklare hvorfor – og tilbyder værktøjer til at forme AI-design på måder, der respekterer og understøtter menneskelig psykologisk trivsel.”
Studiet advarer ikke mod emotionel interaktion med AI – det anerkender det som en opdybkommende realitet. Men med emotionel realisme følger etisk ansvar. AI er ikke kun en maskine – det er en del af det sociale og emotionelle økosystem, vi lever i. At forstå det og designe derefter kan være den eneste måde at sikre, at AI-kompanjonger hjælper mere end de skader.






