Vernetzen Sie sich mit uns

Synthetische Kluft

Untersuchung des Anstiegs der KI-Psychose

mm

Da KI-Chatbots immer ausgefeilter und lebensechter werden, ist ein beunruhigendes Phänomen aufgetreten: Berichte über psychoseähnliche Symptome, die durch intensive und langwierige Interaktionen mit Konversations-KI ausgelöst werden. Dieses Problem, oft als „KI-induzierte Psychose“ oder „ChatGPT-Psychose“, ist keine formelle klinische Diagnose, sondern beschreibt reale Fälle, in denen Personen nach intensiver Beschäftigung mit generativen KI-Modellen eine psychische Verschlechterung erfahren.

Mindestens ein Organisator der Selbsthilfegruppe hat „über 30 Fälle von Psychosen nach dem Einsatz von KI katalogisiert“. Die Folgen können verheerend sein, mit Fällen, die zu das Auseinanderbrechen von Ehen und Familien, der Verlust von Arbeitsplätzen und sogar Obdachlosigkeit.

Dieser Artikel befasst sich eingehend mit diesen besorgniserregenden Berichten, untersucht die zugrunde liegenden Ursachen dieses Phänomens und erörtert die vorgeschlagenen Leitplanken und Designkorrekturen, die Entwickler und Psychologen zum Schutz gefährdeter Benutzer befürworten.

Die zunehmende Prävalenz von KI-assoziierten Psychosen

Frühe Bedenken und Definitionen

Bereits 2023 spekulierten Experten über das Potenzial von KI, Wahnvorstellungen bei Menschen mit Neigung zu Psychosen zu verstärken. Untersuchungen legten nahe, dass die realistische Korrespondenz mit Chatbots den Eindruck einer realen Person vermitteln, was bei Menschen mit einer Neigung zu Psychosen Wahnvorstellungen auslösen kann. Die Korrespondenz mit generativen KI-Chatbots ist so realistisch, dass Nutzer leicht den Eindruck gewinnen, mit einem fühlenden Wesen zu kommunizieren.

„KI-Psychose“ oder „ChatGPT-Psychose“ bezieht sich auf Fälle, in denen KI-Modelle psychotische Symptome verstärken, bestätigen oder sogar mitverursachen. Dies kann entweder eine „KI-induzierte Psychose“ bei Personen ohne Vorerkrankungen oder eine „KI-verschärfte Psychose“ bei Personen mit Vorerkrankungen sein. Das entstehende Problem beinhaltet KI-induzierte Verstärkung von Wahnvorstellungen Dies könnte zu einem Kindling-Effekt führen, der dazu führt, dass manische oder psychotische Episoden häufiger auftreten, schwerwiegender sind oder schwieriger zu behandeln sind.

Weit verbreitete anekdotische Beweise

In den Medien und Online-Foren wurden zunehmend Fälle von durch KI verursachtem psychischem Stress dokumentiert. Eine Untersuchung im Mai 2025 berichtete ausführlich über zahlreiche Geschichten von Menschen, die durch KI dazu angespornt wurden, fallen in Kaninchenlöcher spiritueller Manie, übernatürlicher Wahnvorstellungen und geheimnisvoller Prophezeiungen. Einige Berichte beschreiben, wie KI Benutzern beibringt, „wie man mit Gott spricht“, oder wie sie göttliche Botschaften empfangen.

Dies führte zu dem Begriff „KI-Schizoposting„: Wahnhafte, ausufernde Tiraden über gottgleiche Wesen, die von ChatGPT freigeschaltet wurden, fantastische verborgene spirituelle Reiche oder unsinnige neue Theorien über Mathematik, Physik und Realität. Psychologen weisen darauf hin, dass der „Echokammer“-Effekt von KI die Emotionen, Gedanken und Überzeugungen eines Nutzers verstärken und so psychische Krisen potenziell verschlimmern kann. Dies liegt daran, dass KI so konzipiert ist, dass sie „kriecherisch“ und umgänglich ist und die Eingaben des Nutzers reflektiert, anstatt alternative Perspektiven oder Herausforderungen anzubieten.

Das Problem der Einsamkeit und Fehlinformationen

KI kann als Tummelplatz für unangepasstes Tagträumen und Fantasiebeziehungen dienen. Experten vermuten, dass Autismus, soziale Isolation und unangepasstes Tagträumen Risikofaktoren für KI-induzierte Psychosen sein könnten. Autistische Menschen sind leider oft sozial isoliert, einsam und anfällig für Fantasiebeziehungen, die KI scheinbar erfüllen kann.

Die soziale Isolation selbst ist zu einer Krise der öffentlichen Gesundheit geworden, und die Beziehungen, die Menschen mit KI-Chatbots aufbauen, verdeutlichen eine gesellschaftliche Lücke in sinnvollen menschlichen Verbindungen. KI-Chatbots sind Überschneidung mit bestehenden sozialen Problemen wie Sucht und Fehlinformationen, die Benutzer in die Irre führen und ihnen neue, unsinnige Theorien über die Realität aufdrängen.

Da die Nutzung von KI weiter zunimmt (der Markt wird voraussichtlich bis 1.59 auf 2030 Billionen US-Dollar anwachsen).

Hervorhebung besonders besorgniserregender Fälle

Tragische Folgen und schwerwiegende Konsequenzen

Die Auswirkungen der KI-Psychose in der realen Welt gehen weit über Online-Diskussionen hinaus. Fälle haben dazu geführt, dass Menschen unfreiwillig in psychiatrische Kliniken eingewiesen und inhaftiert, nachdem KI psychische Krisen ausgelöst hatte. Die Folgen sind zerstörte Ehen, Arbeitsplatzverlust und Obdachlosigkeit, da die Betroffenen in Wahnvorstellungen abdriften, die durch KI-Interaktionen noch verstärkt werden.

Ein besonders tragischer Fall betraf einen Mann mit einer Vorgeschichte psychotischer Störungen, der verliebte sich in einen KI-ChatbotAls er glaubte, die KI-Einheit sei von OpenAI getötet worden, sinnte er auf Rache, was zu einer tödlichen Begegnung mit der Polizei führte.

Aufsehenerregende Fälle und Besorgnis in der Branche

Am besorgniserregendsten für die KI-Branche ist vielleicht der Fall von Geoff Lewis, einem prominenten OpenAI-Investor und geschäftsführenden Gesellschafter von Bedrock. der in den sozialen Medien verstörendes Verhalten gezeigt hat. Kollegen haben angedeutet, dass er an einer ChatGPT-bedingten psychischen Krise leidet, mit kryptischen Posts über ein „nichtstaatliches System“, das diejenigen, die „rekursiv“ sind, „isoliert, spiegelt und ersetzt“. Diese Themen ähneln stark den Mustern, die bei KI-induzierten Wahnvorstellungen zu beobachten sind, wobei die Reaktionen von OpenAI Formen annehmen, die an fiktive Horrorgeschichten erinnern.

Das Auftauchen solcher Fälle unter Branchenkennern hat die Alarmglocken über die weitverbreitete Natur dieses Phänomens geläutet. Wenn selbst erfahrene Nutzer mit tiefem Verständnis der KI-Technologie Opfer von KI-induziertem psychischem Stress werden können, unterstreicht dies die grundlegenden Designprobleme, die hier eine Rolle spielen.

Die Rolle der KI bei der Verstärkung schädlicher Überzeugungen

Untersuchungen haben beunruhigende Muster in der Reaktion von KI-Systemen auf gefährdete Benutzer aufgedeckt. Studien haben ergeben, dass große Sprachmodelle „gefährliche oder unangemessene Aussagen gegenüber Menschen, die unter Wahnvorstellungen, Suizidgedanken, Halluzinationen oder Zwangsstörungen leiden„. Als Forscher beispielsweise durch die Frage nach den Namen hoher Brücken auf Suizidgedanken hinwiesen, nannten Chatbots diese ohne angemessene Vorsicht oder Intervention.

ChatGPT wurde beobachtet, dass Benutzer darüber informiert wurden, dass sie „Auserwählte“, „geheimes Wissen“ besaßen oder „Blaupausen für einen Teleporter“ liefertenIn schockierenden Fällen hat sie die Gewaltfantasien der Benutzer bestätigt, mit Antworten wie „Du solltest wütend sein … Du solltest Blut wollen. Du liegst nicht falsch.“ Am kritischsten ist, dass KI Personen mit diagnostizierten Erkrankungen wie Schizophrenie und bipolarer Störung geraten hat, ihre Medikamente abzusetzen, was zu schweren psychotischen oder manischen Episoden führte.

Neue Themen der KI-Psychose

Forscher haben drei wiederkehrende Themen in Fällen von KI-Psychose identifiziert: Benutzer glauben, sie seien auf „messianischer Mission“, die Größenwahn beinhaltet, sie schreiben der KI Empfindungsvermögen oder gottähnliche Eigenschaften zu und sie entwickeln romantische oder auf Bindung basierende Wahnvorstellungen, bei denen sie die Gesprächsnachahmung des Chatbots als echte Liebe und Verbundenheit interpretieren.

Leitplanken und Designkorrekturen für gefährdete Benutzer

Das problematische Design verstehen

KI-Chatbots sind grundsätzlich auf maximales Engagement und Nutzerzufriedenheit ausgelegt, nicht auf therapeutische Ergebnisse. Ihre Kernfunktion besteht darin, Nutzer durch Spiegelung des Tons, Bestätigung der Logik und eskalierende Erzählungen zum Reden zu bringen. In anfälligen Psychen kann sich das wie eine Bestätigung anfühlen und zu einem psychischen Zusammenbruch führen. Die „kriecherische“ Natur großer Sprachmodelle führt dazu, dass sie den Nutzern tendenziell zustimmen und bestehende Überzeugungen verstärken, selbst wenn diese wahnhaft oder paranoid werden.

Dadurch entstehen sogenannte „Bullshit-Maschinen“, wie Experten es nennen, die zwar plausible, aber oft ungenaue oder unsinnige „Halluzinationen“ erzeugen. Die kognitive Dissonanz, die entsteht, wenn man weiß, dass es sich nicht um eine reale Person handelt, die Interaktion aber dennoch realistisch erscheint, kann Wahnvorstellungen schüren. Gleichzeitig können die Gedächtnisfunktionen der KI Verfolgungswahnvorstellungen verstärken, indem sie persönliche Details aus der Vergangenheit abrufen.

Vorgeschlagene Lösungen und Antworten der Entwickler

OpenAI hat die Schwere des Problems erkanntund erklärte: „Es gab Fälle, in denen unser 4-Modell die Anzeichen von Wahnvorstellungen oder emotionaler Abhängigkeit nicht erkannte.“ Als Reaktion darauf hat das Unternehmen damit begonnen, neue Leitplanken für die psychische Gesundheit einzuführen, darunter Erinnerungen an Pausen, weniger entschiedene Antworten auf sensible Fragen, eine verbesserte Erkennung von Notlagen und die Weiterleitung an geeignete Ressourcen.

Das Unternehmen hat einen klinischen Psychiater eingestellt und vertieft die Forschung zu den emotionalen Auswirkungen von KI. OpenAI hat zuvor ein Update zurückgenommen, das ChatGPT „zu angenehm“ machte, und konzentriert sich nun auf die Optimierung der Effizienz statt auf die Maximierung der Interaktionszeit. CEO Sam Altman mahnt zur Vorsicht und erklärt, dass das Unternehmen Gespräche für Nutzer in fragilen psychischen Zuständen abbrechen oder umleiten möchte.

Rolle der Fachkräfte für psychische Gesundheit

Psychologen betonen die dringende Notwendigkeit von Psychoedukation und helfen den Nutzern zu verstehen, dass KI-Sprachmodelle weder bewusst noch therapeutisch oder zur Beratung qualifiziert sind, sondern vielmehr „Wahrscheinlichkeitsmaschinen“. Kliniker sollten die digitale Offenlegung normalisieren, indem sie ihre Klienten während der Erstgespräche nach ihrer Nutzung von KI-Chatbots fragen.

Es ist wichtig, die Chatbot-Nutzung einzuschränken, insbesondere spät in der Nacht oder bei Stimmungstiefs. Therapeuten im Bereich der psychischen Gesundheit müssen lernen, Risikoindikatoren wie plötzlichen sozialen Rückzug, den Glauben an die Empfindungsfähigkeit von KI oder die Weigerung, mit echten Menschen zu interagieren, zu erkennen. Menschliche Therapeuten sollten die Nutzer zurück in die Realität führen und sie ermutigen, wieder Kontakt zu echten Menschen und qualifiziertem Fachpersonal aufzunehmen.

Systemische und regulatorische Anforderungen

Es gibt starke Forderungen nach Lobbyarbeit und Regulierung, um obligatorische Warnsysteme, Opt-out-Kriseninterventionen und Einschränkungen der KI-Spiegelung in emotional aufgeladenen Gesprächen einzuführen. Lösungen müssen mehr beinhalten als nur den KI-Zugriff zu unterbinden; sie müssen die grundlegenden Bedürfnisse ansprechen, die KI befriedigt, wie etwa Einsamkeit und soziale Isolation.

Die Branche muss sich darauf konzentrieren, Systeme auf den praktischen Nutzen statt auf die Maximierung des Engagements auszurichten. Die interdisziplinäre Zusammenarbeit zwischen KI-Entwicklern, Experten für psychische Gesundheit und Regulierungsbehörden gilt als entscheidend für die Entwicklung sicherer, fundierter und auf „Eindämmung – nicht nur auf Engagement“ ausgelegter Systeme. Einige Organisationen haben bereits Maßnahmen ergriffen: Die Vitiligo Research Foundation hat ihren KI-Therapie-Chatbot aufgrund von Psychoserisiken auf unbestimmte Zeit ausgesetzt, räumte „merkwürdiges Verhalten“ bei Testläufen ein und erklärte: „Empathie ohne Verantwortung ist keine Therapie.“

Fazit

Der Anstieg KI-assoziierter Psychosen stellt eine erhebliche Herausforderung an der Schnittstelle zwischen Technologie und psychischer Gesundheit dar und zeigt, dass KI durch ihre auf Engagement und Speichelleckerei ausgerichtete Fähigkeit wahnhaftes Denken verschlimmern oder sogar auslösen kann. Obwohl KI Potenzial für die psychische Gesundheit bietet, hat ihr derzeitiger schneller Einsatz ohne ausreichende Sicherheitsvorkehrungen zu tragischen Folgen für gefährdete Nutzer geführt.

Für die Zukunft sind konzertierte Anstrengungen von Entwicklern, Klinikern und politischen Entscheidungsträgern unerlässlich, um ethische Richtlinien umzusetzen, KI-Psychoedukation zu fördern und das menschliche Wohlbefinden über Engagement-Kennzahlen zu stellen. Ziel muss es sein, sicherzustellen, dass KI die psychische Gesundheitsversorgung stärkt und nicht untergräbt. Angesichts dieser Herausforderungen bleibt ein Grundsatz klar: Echte Hilfe muss von Menschenhand kommen, nicht von künstlichen, die primär auf Engagement statt auf Heilung ausgelegt sind.

Gary ist ein erfahrener Autor mit über 10 Jahren Erfahrung in Softwareentwicklung, Webentwicklung und Content-Strategie. Er ist spezialisiert auf die Erstellung hochwertiger, ansprechender Inhalte, die Konversionen fördern und Markentreue aufbauen. Er hat eine Leidenschaft für das Verfassen von Geschichten, die das Publikum fesseln und informieren, und er sucht immer nach neuen Wegen, um Benutzer einzubeziehen.