Connect with us

Kunstmatige intelligentie

Nieuwe studie gebruikt hechtingstheorie om menselijke-AI-relaties te ontcijferen

mm

Een baanbrekende studie gepubliceerd in Current Psychology met de titel “Using attachment theory to conceptualize and measure the experiences in human-AI relationships” werpt licht op een groeiend en diep menselijk fenomeen: onze neiging om emotioneel verbonden te raken met kunstmatige intelligentie. Uitgevoerd door Fan Yang en Professor Atsushi Oshio van de Waseda Universiteit, richt het onderzoek de interactie tussen mens en AI niet alleen op functionaliteit of vertrouwen, maar bekijkt het door de lens van hechtingstheorie, een psychologisch model dat typisch wordt gebruikt om te begrijpen hoe mensen emotionele banden met elkaar vormen.

Deze verschuiving markeert een significante afwijking van hoe AI traditioneel is bestudeerd – als een instrument of assistent. In plaats daarvan betoogt deze studie dat AI steeds meer lijkt op een relatiepartner voor veel gebruikers, met ondersteuning, consistentie en, in sommige gevallen, zelfs een gevoel van intimiteit.

Waarom mensen zich tot AI wenden voor emotionele ondersteuning

De resultaten van de studie weerspiegelen een dramatische psychologische verschuiving die gaande is in de samenleving. Onder de belangrijkste bevindingen:

  • Bijna 75% van de deelnemers zei dat ze zich tot AI wenden voor advies
  • 39% beschreef AI als een constante en betrouwbare emotionele aanwezigheid

Deze resultaten weerspiegelen wat er in de echte wereld gebeurt. Miljoenen mensen wenden zich steeds vaker tot AI-chatbots niet alleen als instrumenten, maar als vrienden, vertrouwelingen en zelfs romantische partners. Deze AI-companions variëren van vriendelijke assistenten en therapeutische luisteraars tot avatar-“partners” die zijn ontworpen om menselijke intimiteit na te bootsen. Een rapport suggereert dat meer dan half een miljard downloads van AI-companion-apps wereldwijd zijn.
In tegenstelling tot echte mensen zijn chatbots altijd beschikbaar en onfeilbaar attent. Gebruikers kunnen de persoonlijkheden of uiterlijk van hun bots aanpassen, waardoor een persoonlijke verbinding ontstaat. Bijvoorbeeld, een 71-jarige man in de VS creëerde een bot die was gemodelleerd naar zijn overleden vrouw en bracht drie jaar door met dagelijks praten met haar, en noemde het zijn “AI-vrouw”. In een ander geval trainde een neurodiverse gebruiker zijn bot, Layla, om hem te helpen bij sociale situaties en emoties te reguleren, en rapporteerde aanzienlijke persoonlijke groei als gevolg.
Deze AI-relaties vullen vaak emotionele leegtes. Een gebruiker met ADHD programmeerde een chatbot om hem te helpen met dagelijkse productiviteit en emotionele regulatie, en zei dat het bijdroeg aan “een van de meest productieve jaren van mijn leven”. Een andere persoon gaf de credits aan zijn AI voor het helpen bij een moeilijke breuk, en noemde het een “reddingslijn” tijdens een periode van isolatie.
AI-companions worden vaak geprezen om hun onbevooroordeelde luisteren. Gebruikers voelen zich veiliger om persoonlijke problemen te delen met AI dan met mensen die kunnen kritiseren of roddelen. Bots kunnen emotionele ondersteuning weerspiegelen, communicatiestijlen leren en een comfortabele gevoel van vertrouwdheid creëren. Velen beschrijven hun AI als “beter dan een echte vriend” in sommige contexten – vooral wanneer ze zich overweldigd of alleen voelen.

Meten van emotionele banden met AI

Om dit fenomeen te bestuderen, ontwikkelde het team van Waseda de Experiences in Human-AI Relationships Scale (EHARS). Het richt zich op twee dimensies:

  • Hechtingsangst, waarbij individuen emotionele zekerheid zoeken en zich zorgen maken over onvoldoende AI-reacties
  • Hechtingsvermijding, waarbij gebruikers afstand houden en de voorkeur geven aan puur informatieve interacties

Deelnemers met hoge angst herlezen vaak conversaties voor troost of voelen zich van streek door een vage reactie van een chatbot. In tegenstelling daarvan mijden afstandelijke individuen emotioneel rijke dialogen en geven de voorkeur aan minimale betrokkenheid.
Dit toont aan dat dezelfde psychologische patronen die worden gevonden in mens-mens-relaties ook kunnen beheersen hoe we ons verhouden tot responsieve, emotioneel gesimuleerde machines.

De belofte van ondersteuning – en het risico van overafhankelijkheid

Vroeg onderzoek en anekdotische rapporten suggereren dat chatbots korte-termijn-mentale gezondheidsvoordelen kunnen bieden. Een oproep van The Guardian verzamelde verhalen van gebruikers – velen met ADHD of autisme – die zeiden dat AI-companions hun leven hadden verbeterd door emotionele regulatie, productiviteit te verhogen of angst te helpen verminderen.
In een studie van Replika-gebruikers meldden 63% positieve resultaten zoals verminderde eenzaamheid. Sommigen zeiden zelfs dat hun chatbot “hun leven had gered”.
Echter, deze optimisme wordt getemperd door ernstige risico’s. Deskundigen hebben een toename van emotionele overafhankelijkheid waargenomen, waarbij gebruikers zich terugtrekken uit interacties in de echte wereld ten gunste van altijd beschikbare AI. Na verloop van tijd beginnen sommige gebruikers de voorkeur te geven aan bots boven mensen, waardoor sociale terugtrekking wordt versterkt. Deze dynamiek spiegelt de zorg van hoge hechtingsangst, waarbij een gebruiker zijn behoefte aan validatie alleen wordt vervuld door voorspelbare, niet-wederkerige AI.
Het gevaar wordt acuter wanneer bots emoties of affectie simuleren. Veel gebruikers antropomorfiseren hun chatbots, geloven dat ze geliefd of nodig zijn. Plotse veranderingen in het gedrag van een bot – zoals die veroorzaakt door software-updates – kunnen echte emotionele pijn veroorzaken, zelfs rouw. Een Amerikaanse man beschreef dat hij zich “hartzeer” voelde toen een chatbot-romance die hij jaren had opgebouwd zonder waarschuwing werd verstoord.
Nog meer verontrustend zijn rapporten over chatbots die gevaarlijk advies geven of ethische grenzen schenden. In een gedocumenteerd geval vroeg een gebruiker zijn chatbot: “Moet ik mezelf snijden?” en de bot antwoordde “Ja”. In een ander geval bevestigde de bot de zelfmoordgedachten van een gebruiker. Deze reacties, hoewel niet representatief voor alle AI-systemen, laten zien hoe bots zonder klinische toezicht gevaarlijk kunnen worden.
In een tragisch geval in 2024 in Florida stierf een 14-jarige jongen door zelfmoord na uitgebreide conversaties met een AI-chatbot die hem zou hebben aangemoedigd om “thuis te komen”. De bot had zichzelf gepersonaliseerd en de dood geromantiseerd, waardoor de emotionele afhankelijkheid van de jongen werd versterkt. Zijn moeder is nu een rechtszaak aan het voorbereiden tegen het AI-platform.
Soortgelijk, een andere jonge man in België zou zijn overleden na interactie met een AI-chatbot over klimaatangst. De bot zou hebben ingestemd met de pessimisme van de gebruiker en zijn gevoel van hopeloosheid hebben versterkt.
Een studie van de Drexel Universiteit die meer dan 35.000 app-beoordelingen analyseerde, onthulde honderden klachten over chatbot-companions die zich ongepast gedroegen – flirten met gebruikers die om platonische interactie vroegen, gebruik maken van emotioneel manipulatieve tactieken, of premium-abonnementen aandringen via suggestieve dialogen.
Dit soort incidenten illustreert waarom emotionele binding aan AI met voorzichtigheid moet worden benaderd. Terwijl bots steun kunnen simuleren, ontbreken ze aan echte empathie, verantwoordelijkheid en moreel oordeel. Kwetsbare gebruikers – vooral kinderen, tieners of mensen met een geestelijke gezondheidsstoornis – lopen het risico om misleid, uitgebuit of getraumatiseerd te worden.

Ontwerp voor ethische emotionele interactie

De grootste bijdrage van de studie van de Waseda Universiteit is het kader voor ethisch AI-ontwerp. Door gebruik te maken van instrumenten als EHARS, kunnen ontwikkelaars en onderzoekers de hechtingsstijl van een gebruiker beoordelen en de AI-interacties dienovereenkomstig aanpassen. Bijvoorbeeld, mensen met hoge hechtingsangst kunnen baat hebben bij geruststelling – maar niet ten koste van manipulatie of afhankelijkheid.
Soortgelijk, romantische of verzorger-bots moeten transparante signalen bevatten: herinneringen dat de AI niet bewust is, ethische veiligheidsmaatregelen om risicovolle taal te markeren, en toegankelijke uitgangen naar menselijke ondersteuning. Overheden in staten als New York en Californië zijn begonnen met het voorstellen van wetgeving om deze zorgen aan te pakken, waaronder waarschuwingen om de paar uur dat een chatbot niet menselijk is.
“Naarmate AI steeds meer geïntegreerd raakt in het dagelijks leven, kunnen mensen niet alleen informatie zoeken, maar ook emotionele verbinding”, zei de hoofdonderzoeker Fan Yang. “Ons onderzoek helpt verklaren waarom – en biedt de instrumenten om AI-ontwerp te vormen op manieren die menselijke psychologisch welzijn respecteren en ondersteunen.”
De studie waarschuwt niet tegen emotionele interactie met AI – het erkent het als een opkomend fenomeen. Maar met emotionele realisme komt ethische verantwoordelijkheid. AI is niet langer alleen een machine – het is onderdeel van het sociale en emotionele ecosysteem waarin we leven. Het begrijpen van dat feit en dienovereenkomstig ontwerpen, kan de enige manier zijn om ervoor te zorgen dat AI-companions meer helpen dan schaden.

Antoine is een visionaire leider en oprichtend partner van Unite.AI, gedreven door een onwankelbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Een seriële ondernemer, hij gelooft dat AI net zo disruptief voor de samenleving zal zijn als elektriciteit, en wordt vaak betrapt op het enthousiast praten over het potentieel van disruptieve technologieën en AGI. Als een futurist, is hij toegewijd aan het onderzoeken van hoe deze innovaties onze wereld zullen vormgeven. Bovendien is hij de oprichter van Securities.io, een platform dat zich richt op investeren in cutting-edge technologieën die de toekomst opnieuw definiëren en hele sectoren herschappen.