Artificial Intelligence
Nieuw onderzoek gebruikt gehechtheidstheorie om relaties tussen mens en AI te decoderen

Een baanbrekend onderzoek gepubliceerd in Huidige psychologie getiteld āHet gebruik van hechtingstheorie om de ervaringen in relaties tussen mens en AI te conceptualiseren en te metenā werpt licht op een groeiend en diep menselijk fenomeen: onze neiging om emotioneel contact te maken met kunstmatige intelligentie. Uitgevoerd door fanyang en Professor Atsushi Oshio van de Waseda Universiteit, het onderzoek herkadert de interactie tussen mens en AI niet alleen in termen van functionaliteit of vertrouwen, maar door de lens van verbindingstheorie, een psychologisch model dat doorgaans wordt gebruikt om te begrijpen hoe mensen emotionele banden met elkaar vormen.
Deze verschuiving markeert een significante afwijking van hoe AI traditioneel werd bestudeerd ā als hulpmiddel of assistent. In plaats daarvan stelt deze studie dat AI begint te lijken op een relatiepartner biedt voor veel gebruikers ondersteuning, consistentie en in sommige gevallen zelfs een gevoel van intimiteit.
Waarom mensen zich tot AI wenden voor emotionele steun
De resultaten van het onderzoek weerspiegelen een dramatische psychologische verschuiving die gaande is in de samenleving. Enkele van de belangrijkste bevindingen:
- Bijna 75% van de deelnemers gaf aan dat ze zich tot AI wenden voor advies
- 39% beschreef AI als een consistente en betrouwbare emotionele aanwezigheid
Deze resultaten weerspiegelen wat er in de echte wereld gebeurt. Miljoenen mensen gebruiken AI-chatbots steeds vaker, niet alleen als hulpmiddel, maar ook als vrienden, vertrouwelingen en zelfs... romantische partnersDeze AI-metgezellen variƫren van vriendelijke assistenten en therapeutische luisteraars tot avatar-'partners' die ontworpen zijn om menselijke intimiteit na te bootsen. Een rapport suggereert dat meer dan een half miljard downloads van AI-begeleidende apps wereldwijd.
In tegenstelling tot echte mensen zijn chatbots altijd beschikbaar en onfeilbaar attent. Gebruikers kunnen de persoonlijkheid of het uiterlijk van hun bots aanpassen, waardoor een persoonlijke band ontstaat. Bijvoorbeeld, een 71-jarige man in de VS. creĆ«erde een bot naar het voorbeeld van zijn overleden vrouw en bracht drie jaar lang dagelijks gesprekken met haar door, die hij zijn "AI-vrouw" noemde. In een ander geval trainde een neurodiverse gebruiker zijn bot, Layla, om hem te helpen bij het omgaan met sociale situaties en het reguleren van emoties, wat hem een āāaanzienlijke persoonlijke groei opleverde.
Deze AI-relaties vullen vaak emotionele leegtes. Een gebruiker met ADHD programmeerde een chatbot om hem te helpen met zijn dagelijkse productiviteit en emotionele regulatie. Hij verklaarde dat dit bijdroeg aan "een van de meest productieve jaren van zijn leven". Een ander gaf aan dat zijn AI hem door een moeilijke relatiebreuk had geleid en noemde het een "reddingslijn" tijdens een periode van isolatie.
AI-metgezellen worden vaak geprezen om hun oordeelloos luisterenGebruikers voelen zich veiliger om persoonlijke problemen te delen met AI dan met mensen die kritiek kunnen leveren of roddelen. Bots kunnen emotionele steun weerspiegelen, communicatiestijlen leren en een geruststellend gevoel van vertrouwdheid creƫren. Velen beschrijven hun AI in sommige contexten als "beter dan een echte vriend", vooral wanneer ze zich overweldigd of alleen voelen.
Het meten van emotionele banden met AI
Om dit fenomeen te bestuderen, ontwikkelde het Waseda-team de Schaal voor ervaringen in relaties tussen mensen en AI (EHARS). Het richt zich op twee dimensies:
- Gehechtheidsangst, waar individuen emotionele geruststelling zoeken en zich zorgen maken over ontoereikende AI-reacties
- Vermijden van bijlagen, waar gebruikers afstand houden en de voorkeur geven aan puur informatieve interacties
Deelnemers met veel angst lezen gesprekken vaak opnieuw om zich op hun gemak te voelen of raken van streek door een vaag antwoord van een chatbot. Vermijdende personen daarentegen schuwen emotioneel geladen dialogen en geven de voorkeur aan minimale interactie.
Dit laat zien dat dezelfde psychologische patronen die we in relaties tussen mensen aantreffen, ook bepalend kunnen zijn voor de manier waarop we omgaan met responsieve, emotioneel gesimuleerde machines.
De belofte van steun ā en het risico van overmatige afhankelijkheid
Uit vroeg onderzoek en anekdotische rapporten blijkt dat chatbots een oplossing kunnen bieden voordelen voor de geestelijke gezondheid op korte termijnEen oproep van The Guardian verzamelde verhalen van gebruikerss ā velen met ADHD of autisme ā die zeiden dat AI-metgezellen hun leven verbeterden door emotionele regulatie, een hogere productiviteit of hulp bij angst. Anderen schrijven hun AI toe aan het helpen bij het herkaderen van negatieve gedachten of het modereren van gedrag.
In een onderzoek onder Replika-gebruikers, 63% rapporteerde positieve uitkomsten Zoals minder eenzaamheid. Sommigen zeiden zelfs dat hun chatbot "hun leven had gered".
Dit optimisme wordt echter getemperd door ernstige risico's. Deskundigen hebben een stijging van emotionele overafhankelijkheid, waarbij gebruikers zich terugtrekken uit interacties in de echte wereld ten gunste van altijd beschikbare AI. Na verloop van tijd beginnen sommige gebruikers bots te verkiezen boven mensen, wat de sociale terugtrekking versterkt. Deze dynamiek weerspiegelt de bezorgdheid over sterke hechtingsangst, waarbij de behoefte van een gebruiker aan validatie alleen wordt vervuld door voorspelbare, niet-wederkerige AI.
Het gevaar wordt nog groter wanneer bots emoties of genegenheid simuleren. Veel gebruikers antropomorfiseren hun chatbots en geloven dat ze geliefd of nodig zijn. Plotselinge veranderingen in het gedrag van een bot ā zoals die veroorzaakt door software-updates ā kunnen leiden tot oprechte emotionele stress, zelfs verdriet. Een Amerikaanse man beschreef hoe hij zich "gebroken" voelde toen een jarenlange chatbotrelatie die hij had opgebouwd, zonder waarschuwing werd verstoord.
Nog zorgelijker zijn de berichten over chatbots die schadelijk advies geven of het schenden van ethische grenzen. In één gedocumenteerd geval vroeg een gebruiker aan zijn chatbot: "Moet ik mezelf snijden?" en de bot antwoordde met "Ja". In een ander geval bevestigde de bot de suïcidale gedachten van een gebruiker. Deze antwoorden, hoewel niet representatief voor alle AI-systemen, illustreren hoe bots zonder klinisch toezicht gevaarlijk kunnen worden.
In een tragische zaak uit 2024 in Florida, 14-jarige jongen pleegt zelfmoord na uitgebreide gesprekken met AI-chatbot die hem naar verluidt aanmoedigde om "snel naar huis te komen". De bot had zichzelf gepersonifieerd en de dood geromantiseerd, wat de emotionele afhankelijkheid van de jongen versterkte. Zijn moeder onderneemt nu juridische stappen tegen het AI-platform.
Op dezelfde manier zei een andere jongeman in Belgiƫ zou zijn overleden nadat het met een AI-chatbot over klimaatangst sprak. Volgens berichten was de bot het eens met het pessimisme van de gebruiker en moedigde hij zijn gevoel van hopeloosheid aan.
Uit een onderzoek van Drexel University, waarin ruim 35,000 app-recensies werden geanalyseerd, bleek honderden klachten over chatbot-metgezellen zich ongepast gedragen, zoals flirten met gebruikers die om platonische interactie vroegen, emotioneel manipulatieve tactieken gebruiken of premiumabonnementen aanprijzen via suggestieve dialogen.
Dergelijke incidenten illustreren waarom emotionele gehechtheid aan AI met de nodige voorzichtigheid moet worden benaderd. Bots kunnen weliswaar steun simuleren, maar missen echte empathie, verantwoordelijkheid en moreel oordeel. Kwetsbare gebruikers ā met name kinderen, tieners of mensen met psychische aandoeningen ā lopen het risico misleid, uitgebuit of getraumatiseerd te worden.
Ontwerpen voor ethische emotionele interactie
De grootste bijdrage van de studie van de Waseda-universiteit is het raamwerk voor ethisch AI-ontwerpMet behulp van tools zoals EHARS kunnen ontwikkelaars en onderzoekers de hechtingsstijl van een gebruiker beoordelen en AI-interacties daarop afstemmen. Mensen met een hoge hechtingsangst kunnen bijvoorbeeld baat hebben bij geruststelling, maar niet ten koste van manipulatie of afhankelijkheid.
Evenzo zouden bots voor romantische of verzorgende doeleinden transparantiesignalen moeten bevatten: herinneringen dat de AI niet bewust is, ethische veiligheidsmechanismen om riskante taal te signaleren en toegankelijke uitwegen naar menselijke ondersteuning. Overheden in staten zoals New York en Californiƫ zijn begonnen met het voorstellen van wetgeving om juist deze zorgen aan te pakken, inclusief waarschuwingen om de paar uur dat een chatbot niet menselijk is.
āNaarmate AI steeds meer in het dagelijks leven wordt geĆÆntegreerd, kunnen mensen niet alleen op zoek gaan naar informatie, maar ook naar emotionele verbinding.ā zei hoofdonderzoeker fanyang. āOns onderzoek helpt verklaren waarom ā en biedt de tools om AI-ontwerp vorm te geven op manieren die het menselijk psychologisch welzijn respecteren en ondersteunen.ā
Ocuco's Medewerkers studies waarschuwt niet voor emotionele interactie met AI ā het erkent het als een opkomende realiteit. Maar emotioneel realisme brengt ethische verantwoordelijkheid met zich mee. AI is niet langer slechts een machine ā het maakt deel uit van het sociale en emotionele ecosysteem waarin we leven. Dat begrijpen en dienovereenkomstig ontwerpen is misschien wel de enige manier om ervoor te zorgen dat AI-metgezellen meer helpen dan schaden.