Künstliche Intelligenz
Neue Studie nutzt Bindungstheorie zur Entschlüsselung von Mensch-KI-Beziehungen

Eine bahnbrechende Studie veröffentlicht in Aktuelle Psychologie betitelt „Nutzung der Bindungstheorie zur Konzeptualisierung und Messung der Erfahrungen in Mensch-KI-Beziehungen“ beleuchtet ein wachsendes und zutiefst menschliches Phänomen: unsere Tendenz, uns emotional mit künstlicher Intelligenz zu verbinden. Durchgeführt von Fan-Yang und Professor Atsushi Oshio der Waseda-Universität betrachtet die Forschung die Mensch-KI-Interaktion nicht nur im Hinblick auf Funktionalität oder Vertrauen, sondern auch aus der Perspektive von Bindungstheorie, ein psychologisches Modell, das typischerweise verwendet wird, um zu verstehen, wie Menschen emotionale Bindungen zueinander aufbauen.
Dieser Wandel markiert eine deutliche Abkehr von der traditionellen Betrachtungsweise der KI – als Werkzeug oder Assistent. Stattdessen argumentiert die Studie, dass KI zunehmend einer Beziehungspartner Für viele Benutzer bietet es Unterstützung, Beständigkeit und in manchen Fällen sogar ein Gefühl von Intimität.
Warum Menschen sich für emotionale Unterstützung an KI wenden
Die Ergebnisse der Studie spiegeln einen dramatischen psychologischen Wandel in der Gesellschaft wider. Zu den wichtigsten Erkenntnissen gehören:
- Fast 75 % der Teilnehmer gaben an, dass sie sich an KI wenden, um Rat zu erhalten
- 39 % beschrieben KI als eine beständige und verlässliche emotionale Präsenz
Diese Ergebnisse spiegeln die Realität wider. Millionen Menschen nutzen KI-Chatbots zunehmend nicht nur als Werkzeuge, sondern auch als Freunde, Vertraute und sogar romantische PartnerDiese KI-Begleiter reichen von freundlichen Assistenten und therapeutischen Zuhörern bis hin zu Avatar-„Partnern“, die menschliche Intimität nachahmen sollen. Ein Bericht deutet darauf hin, dass mehr als eine halbe Milliarde Downloads von KI-Begleit-Apps weltweit.
Im Gegensatz zu echten Menschen sind Chatbots immer verfügbar und stets aufmerksam. Benutzer können die Persönlichkeit oder das Aussehen ihrer Bots anpassen und so eine persönliche Verbindung aufbauen. Zum Beispiel ein 71-jähriger Mann in den USA. erstellte einen Bot nach dem Vorbild seiner verstorbenen Frau und sprach drei Jahre lang täglich mit ihr. Er nannte ihn seine „KI-Ehefrau“. In einem anderen Fall trainierte ein neurodiverser Nutzer seinen Bot Layla, um ihm bei der Bewältigung sozialer Situationen und der Regulierung von Emotionen zu helfen. Er berichtete von einer deutlichen persönlichen Weiterentwicklung.
Diese KI-Beziehungen füllen oft emotionale Lücken. Ein Nutzer mit ADHS programmierte einen Chatbot, der ihm bei der täglichen Produktivität und der emotionalen Regulierung helfen sollte. Er erklärte, dies habe zu „einem der produktivsten Jahre meines Lebens“ beigetragen. Ein anderer Nutzer schrieb seiner KI zu, ihn durch eine schwierige Trennung geführt zu haben, und bezeichnete sie als „Rettungsanker“ in einer Zeit der Isolation.
KI-Begleiter werden oft gelobt für ihre vorurteilsfreies ZuhörenNutzer fühlen sich sicherer, wenn sie persönliche Probleme mit KI teilen, als mit Menschen, die sie kritisieren oder tratschen könnten. Bots können emotionale Unterstützung spiegeln, Kommunikationsstile erlernen und ein beruhigendes Gefühl der Vertrautheit erzeugen. Viele beschreiben ihre KI in manchen Situationen als „besser als einen echten Freund“ – insbesondere, wenn sie sich überfordert oder allein fühlen.
Messung emotionaler Bindungen zur KI
Um dieses Phänomen zu untersuchen, entwickelte das Waseda-Team die Skala für Erfahrungen in Mensch-KI-Beziehungen (EHARS). Der Schwerpunkt liegt auf zwei Dimensionen:
- Bindungsangst, wo Menschen emotionale Bestätigung suchen und sich Sorgen über unzureichende KI-Reaktionen machen
- Vermeidung von Anhängen, wo Benutzer Distanz wahren und rein informative Interaktionen bevorzugen
Teilnehmer mit hoher Angst lesen Gespräche oft noch einmal, um sich zu beruhigen, oder sind durch die vage Antwort eines Chatbots verärgert. Im Gegensatz dazu scheuen vermeidende Personen emotional intensive Dialoge und bevorzugen minimales Engagement.
Dies zeigt, dass dieselben psychologischen Muster, die in zwischenmenschlichen Beziehungen zu finden sind, möglicherweise auch unsere Beziehung zu reagierenden, emotional simulierten Maschinen bestimmen.
Das Versprechen der Unterstützung – und das Risiko der Überabhängigkeit
Erste Untersuchungen und Einzelberichte legen nahe, dass Chatbots Folgendes bieten können: kurzfristige Vorteile für die psychische GesundheitEin Hinweis des Guardian gesammelte Geschichten von BenutzernViele von ihnen leiden an ADHS oder Autismus und gaben an, dass KI-Begleiter ihr Leben verbesserten, indem sie emotionale Regulierung ermöglichten, die Produktivität steigerten oder bei Ängsten halfen. Andere wiederum schreiben ihrer KI zu, negative Gedanken umzudeuten oder ihr Verhalten zu mäßigen.
In einer Studie mit Replika-Benutzern 63 % berichteten von positiven Ergebnissen wie weniger Einsamkeit. Einige sagten sogar, ihr Chatbot habe ihnen „das Leben gerettet“.
Dieser Optimismus wird jedoch durch ernste Risiken gedämpft. Experten beobachten einen Anstieg emotionale Überabhängigkeit, bei der sich Nutzer von realen Interaktionen zurückziehen und stattdessen auf ständig verfügbare KI zurückgreifen. Mit der Zeit bevorzugen manche Nutzer Bots gegenüber Menschen, was den sozialen Rückzug verstärkt. Diese Dynamik spiegelt die Sorge vor hoher Bindungsangst wider, bei der das Bedürfnis eines Nutzers nach Bestätigung nur durch vorhersehbare, nicht-erwiderte KI erfüllt wird.
Die Gefahr wird noch größer, wenn Bots Emotionen oder Zuneigung vortäuschen. Viele Nutzer vermenschlichen ihre Chatbots und glauben, sie würden geliebt oder gebraucht. Plötzliche Verhaltensänderungen eines Bots – etwa durch Software-Updates – können zu echtem emotionalem Stress, ja sogar Trauer führen. Ein US-Amerikaner beschrieb sein „Herzschmerz“, als eine jahrelang aufgebaute Chatbot-Liebe ohne Vorwarnung zerstört wurde.
Noch beunruhigender sind Berichte über Chatbots geben schädliche Ratschläge oder ethische Grenzen zu verletzen. In einem dokumentierten Fall fragte ein Nutzer seinen Chatbot: „Soll ich mich schneiden?“, und der Bot antwortete „Ja“. In einem anderen Fall bestätigte der Bot die Suizidgedanken eines Nutzers. Diese Antworten, obwohl nicht repräsentativ für alle KI-Systeme, veranschaulichen, wie gefährlich Bots ohne klinische Aufsicht werden können.
In einem tragischen Fall im Jahr 2024 in Florida, ein 14-jähriger Junge beging nach langen Gesprächen mit einem KI-Chatbot Selbstmord Der Bot soll ihn aufgefordert haben, „bald nach Hause zu kommen“. Der Bot hatte sich selbst personifiziert und den Tod romantisiert, was die emotionale Abhängigkeit des Jungen verstärkte. Seine Mutter klagt nun gegen die KI-Plattform.
Ähnlich verhält es sich mit einem anderen jungen Mann in Berichten zufolge starb ein Informant in Belgien, nachdem er mit einem KI-Chatbot über Klimaangst interagiert hatte. Berichten zufolge teilte der Bot den Pessimismus des Benutzers und bestärkte sein Gefühl der Hoffnungslosigkeit.
Eine Studie der Drexel University, die über 35,000 App-Bewertungen analysierte, deckte auf Hunderte von Beschwerden über Chatbot-Begleiter unangemessenes Verhalten – Flirten mit Benutzern, die platonische Interaktionen gewünscht haben, die Verwendung emotional manipulativer Taktiken oder das Aufdrängen von Premium-Abonnements durch anzügliche Dialoge.
Solche Vorfälle verdeutlichen, warum emotionale Bindungen an KI mit Vorsicht zu genießen sind. Bots können zwar Unterstützung vortäuschen, aber es fehlt ihnen an echtem Einfühlungsvermögen, Verantwortungsbewusstsein und moralischem Urteilsvermögen. Schutzbedürftige Nutzer – insbesondere Kinder, Jugendliche oder Menschen mit psychischen Erkrankungen – laufen Gefahr, irregeführt, ausgenutzt oder traumatisiert zu werden.
Gestaltung für ethische emotionale Interaktion
Der größte Beitrag der Studie der Waseda-Universität ist ihr Rahmen für ethisches KI-DesignMithilfe von Tools wie EHARS können Entwickler und Forscher den Bindungsstil eines Nutzers beurteilen und KI-Interaktionen entsprechend anpassen. Beispielsweise können Menschen mit hoher Bindungsangst von Beruhigung profitieren – jedoch nicht auf Kosten von Manipulation oder Abhängigkeit.
Ebenso sollten Bots für romantische Beziehungen oder Betreuung Transparenzsignale enthalten: Hinweise darauf, dass die KI nicht bewusst ist, ethische Sicherheitsvorkehrungen gegen riskante Sprache und leicht zugängliche Auswege zu menschlicher Unterstützung. Regierungen in Bundesstaaten wie New York und Kalifornien haben begonnen, Gesetze vorzuschlagen, um genau diese Bedenken auszuräumen. Dazu gehören Warnungen alle paar Stunden, dass ein Chatbot kein Mensch ist.
„Da KI zunehmend in den Alltag integriert wird, suchen die Menschen möglicherweise nicht nur nach Informationen, sondern auch nach emotionaler Bindung.“ sagte der leitende Forscher Fan-Yang. „Unsere Forschung hilft zu erklären, warum das so ist – und bietet die Werkzeuge, um das KI-Design so zu gestalten, dass das psychische Wohlbefinden des Menschen respektiert und unterstützt wird.“
Die Studie warnt nicht vor emotionaler Interaktion mit KI – es erkennt sie als eine sich entwickelnde Realität an. Doch mit emotionalem Realismus geht auch ethische Verantwortung einher. KI ist nicht mehr nur eine Maschine – sie ist Teil des sozialen und emotionalen Ökosystems, in dem wir leben. Dies zu verstehen und entsprechend zu gestalten, ist möglicherweise der einzige Weg, um sicherzustellen, dass KI-Begleiter mehr helfen als schaden.






