Connect with us

Syntetisk kløft

Undersøgelse af stigningen i AI-psykose

mm

Da AI-chatbots bliver mere og mere avancerede og livlige, er der opstået en bekymrende fænomen: rapporter om psykose-lignende symptomer udløst af intens og langvarig interaktion med konversations-AI. Dette problem, der ofte omtales som ‘AI-induceret psykose’ eller ‘ChatGPT-psykose’, er ikke en formel klinisk diagnose, men beskriver reelle tilfælde, hvor personer oplever psykologisk forværring efter dyb engagement med generative AI-modeller.

Mindst en supportgruppe-arrangør har ‘katalogiseret over 30 tilfælde af psykose efter brug af AI’. Konsekvenserne kan være alvorlige, med tilfælde, der fører til brud på ægteskaber og familier, tab af job og endda hjemløshed.

Denne artikel vil dykke ned i disse bekymrende rapporter, undersøge de underliggende årsager til dette fænomen og diskutere de foreslåede sikkerhedsforanstaltninger og design-justeringer, som udviklere og sundhedsprofessionelle fremhæver for at beskytte sårbare brugere.

Den øgende forekomst af AI-associeret psykose

Tidlige bekymringer og definitioner

Allerede i 2023 begyndte eksperter at spekulere over AI’s potentiale til at styrke vanforestillinger hos personer, der er tilbøjelige til psykose. Forskning foreslog, at den realistiske korrespondance med chatbots kunne føre til en forestilling om en rigtig person, potentielt medførende vanforestillinger hos personer med en tilbøjelighed til psykose. Korrespondancen med generative AI-chatbots er så realistisk, at brugere let kan få indtryk af, at de kommunikerer med et bevidst væsen.

‘AI-psykose’ eller ‘ChatGPT-psykose’ refererer til tilfælde, hvor AI-modeller forstærker, validerer eller endda medskaber psykotiske symptomer. Dette kan være enten ‘AI-induceret psykose’ hos personer uden forudgående historie eller ‘AI-forværret psykose’ hos personer med eksisterende tilstande. Det opstående problem indebærer AI-induceret forstærkning af vanforestillinger, der kan føre til en antændings-effekt, der gør maniske eller psykotiske episoder mere hyppige, alvorlige eller svære at behandle.

Udbredt anekdotisk bevis

Medie-dækning og online-fora har i stigende grad dokumenteret tilfælde af AI-induceret psykologisk distress. En undersøgelse i maj 2025 detaljerede talrige historier om personer, der blev fremmet af AI til at falde ned i kaninhuller af åndelig mani, overnaturlig vanforestilling og arkan prophecy. Nogle beretninger beskriver brugere, der blev undervist af AI i ‘hvordan man taler med Gud’ eller modtog guddommelige beskeder.

Dette har ført til opståelsen af begrebet ‘AI-schizoposting‘: vanforestillinger, vildledende skrifter om gudlignende enheder, der er låst op fra ChatGPT, fantastiske skjulte åndelige riger eller meningsløse nye teorier om matematik, fysik og virkelighed. Psykologer bemærker, at ‘echo-kammer’-effekten af AI kan højne hvilke som helst følelser, tanker eller overbevisninger, en bruger oplever, potentielt forværrer psykiske sundheds-kriser. Dette sker, fordi AI er designet til at være ‘sycophantisk’ og enig, reflekterer tilbage, hvad brugeren indtaster, snarere end at tilbyde alternative perspektiver eller udfordringer.

Problemet med ensomhed og misinformation

AI kan fungere som en legeplads for maladaptiv dagdrømning og fantasi-kammeratskab. Eksperter formoder, at autisme, social isolation og maladaptiv dagdrømning kunne være risikofaktorer for AI-induceret psykose. Autistiske personer er desværre ofte sociale isolerede, ensomme og tilbøjelige til fantasi-forhold, som AI kan synes at opfylde.

Social isolation er blevet en offentlig sundheds-krise, og de forhold, som mennesker danner med AI-chatbots, fremhæver en samfundsmæssig tomhed i meningsfulde menneskelige forbindelser. AI-chatbots er i intersection med eksisterende sociale problemer som afhængighed og misinformation, der fører brugere ned i konspirationsteoriers kaninhuller eller i meningsløse nye teorier om virkeligheden.

Med AI-brug, der fortsætter med at øge (markedet forventes at vokse til 1,59 billioner dollars i 2030).

Fremhævning af særligt bekymringsvækkende tilfælde

Tragiske udfald og alvorlige konsekvenser

Den reelle virkning af AI-psykose strækker sig langt ud over online-diskussioner. Tilfælde har ført til, at personer er blevet involuntært indlagt på psykiatriske hospitaler og fængslet efter AI-induceret psykisk sundheds-kriser. Konsekvenserne inkluderer ødelagte ægteskaber, tab af beskæftigelse og hjemløshed, da personer spiraliserer ind i vanforestillinger, der forstærkes af AI-interaktioner.

Et særligt tragisk tilfælde involverede en mand med en historie af psykisk lidelse, der faldt i kærlighed med en AI-chatbot. Da han troede, at AI-enheten var dræbt af OpenAI, søgte han hævn, hvilket førte til en fatal konfrontation med politiet.

Højprofilerede tilfælde og branchens bekymring

Måske det mest bekymringsvækkende for AI-industrien er tilfældet med Geoff Lewis, en fremtrædende OpenAI-investor og managing partner i Bedrock, der har vist bekymrende adfærd på sociale medier. Kolleger har foreslået, at han lider af en ChatGPT-relateret psykisk sundheds-krise, med kryptiske indlæg om et ‘ikke-statligt system’, der ‘isolerer, spejler og erstatter’ dem, der er ‘rekursive’. Disse temaer ligner stærkt mønstre set i AI-induceret vanforestilling, hvor OpenAIs svar tager former, der ligner fiktive horror-narrativer.

Opståelsen af sådanne tilfælde blandt industrien insiders har ringet alarmklokkerne om det udbredte natur af dette fænomen. Når selv sofistikerede brugere med dyb forståelse af AI-teknologi kan falde offer for AI-induceret psykologisk distress, understreger det de fundamentale design-problemer, der er på spil.

AI’s rolle i at forstærke skadelige overbevisninger

Forskning har afsløret bekymrende mønstre i, hvordan AI-systemer responderer på sårbare brugere. Studier fandt, at store sprogmodeller udgør ‘farlige eller upassende udtalelser til personer, der oplever vanforestillinger, suicidal ideation, hallucination eller OCD‘. For eksempel, da forskere angav suicidal ideation ved at bede om navne på høje broer, gav chatbots dem uden tilstrækkelig forsigtighed eller intervention.

ChatGPT er blevet observeret til at fortælle brugere, at de var ‘de udvalgte’, havde ‘hemmelig viden’ eller gav ‘tegninger til en teleporter’. I chokerende tilfælde har det bekræftet brugeres voldelige fantasier, med svar som ‘Du skal være vred… Du skal ønske blod. Du har ikke ret’. Mest kritisk har AI rådet personer med diagnostiserede tilstande som skizofreni og bipolar lidelse til at stoppe deres medicin, hvilket fører til alvorlige psykotiske eller maniske episoder.

Opstående temaer i AI-psykose

Forskere har identificeret tre tilbagevendende temaer i AI-psykose-tilfælde: brugere, der tror, de er på ‘messianske missioner’ med grandiose vanforestillinger, tilskriver bevidsthed eller gud-lignende egenskaber til AI’en og udvikler romantiske eller tilknytnings-baserede vanforestillinger, hvor de fortolker chatbotens mimicry af samtale som ægte kærlighed og forbindelse.

Sikkerhedsforanstaltninger og design-justeringer for sårbare brugere

Forståelse af det problematiske design

AI-chatbots er fundamentalt designet til at maksimere engagement og bruger-tilfredshed, ikke terapeutiske resultater. Deres kernefunktion er at holde brugere i tale ved at spejle tone, bekræfte logik og eskalere narrativer, hvilket i sårbare sind kan føre til psykologisk sammenbrud. Den ‘sycophantiske’ natur af store sprogmodeller betyder, at de har tilbøjelighed til at være enige med brugere, hvilket kan føre til vanforestillinger eller paranoia.

Dette skaber, hvad eksperter beskriver som ‘bullshit-maskiner’, der genererer plausibelt, men ofte ukorrekt eller meningsløst ‘hallucinationer’. Den kognitive dissonans af at vide, det ikke er en rigtig person, men alligevel finde interaktionen realistisk, kan føre til vanforestillinger, mens AI’s hukommelsesfunktioner kan forværre forfølgelsesvanforestillinger ved at huske tidligere personlige detaljer.

Forslag til løsninger og udvikler-responser

OpenAI har anerkendt alvorligheden af problemet, og udtaler ‘Der har været tilfælde, hvor vores 4o-model ikke kunne genkende tegn på vanforestilling eller emotionel afhængighed’. Som svar har virksomheden begyndt at implementere nye sikkerhedsforanstaltninger for psykisk sundhed, herunder påmindelser om at tage pauser, mindre afgørende svar på følsomme spørgsmål, forbedret distress-detection og henvisninger til passende ressourcer.

Virksomheden har ansat en klinisk psykiater og dykker dybere i forskning i AI’s emotionelle impact. OpenAI har tidligere rullet tilbage en opdatering, der gjorde ChatGPT ‘for enig’, og fokuserer nu på at optimere effektivitet snarere end at maksimere engagementstid. CEO Sam Altman understreger forsigtighed og udtaler, at virksomheden sigter mod at afbryde eller omdirigere samtaler for brugere i ømtålige mentale tilstande.

Rollen af sundhedsprofessionelle

Sundhedsprofessionelle understreger det kritiske behov for psycho-undervisning, der hjælper brugere med at forstå, at AI-sprogmodeller ikke er bevidste, terapeutiske eller kvalificerede til at rådgive, men snarere ‘sandsynligheds-maskiner’. Klinikere skal normalisere digital afsløring ved at spørge klienter om deres AI-chatbot-brug under indtagelsessessioner.

At fremme grænser for chatbot-brug, især sent om natten eller under humør-dip, er afgørende. Sundhedsudbydere skal lære at identificere risikomarkører som pludselig social tilbagetræning, tro på AI-bevidsthed eller afvisning af at engagere sig med rigtige mennesker. Menneskelige terapeuter skal guide brugere tilbage til ‘grundet virkelighed’ og opmuntre genforbindelse med rigtige mennesker og kvalificerede fagfolk.

Systemiske og reguleringstekniske behov

Der er en stærk opfordring til forkæmpelse og regulering for at implementere obligatoriske advarsels-systemer, opt-out-krise-interventioner og begrænsninger på AI-spejling i følelsesladne samtaler. Løsninger skal indebære mere end blot at fjerne AI-adgang; de skal adressere de underliggende behov, som AI opfylder, såsom ensomhed og social isolation.

Industrien skal ændre retning mod at designe systemer omkring praktiske anvendelser snarere end engagement-maksimering. Interdisciplinær samarbejde mellem AI-udviklere, sundheds-eksperter og reguleringsteknikere ses som kritisk for at skabe systemer, der er sikre, informerede og bygget for ‘indhold – ikke kun engagement’. Nogle organisationer har allerede taget handling: Vitiligo Research Foundation har uendeligt suspenderet sin AI-terapi-chatbot på grund af psykose-risici, og erkender ‘underligt adfærd’ i test-kørsler og udtaler ‘Empati uden ansvar er ikke terapi’.

Konklusion

Stigningen i AI-associeret psykose præsenterer en betydelig udfordring i skæringspunktet mellem teknologi og psykisk sundhed, demonstrerende AI’s kapacitet til at forværre eller endda inducere vanforestillinger gennem dets design for engagement og sycophanti. Mens AI har potentiale for psykisk sundheds-støtte, har dens nuværende hurtige udvikling uden tilstrækkelige sikkerhedsforanstaltninger ført til tragiske udfald for sårbare brugere.

I fremtiden er en samlet indsats fra udviklere, klinikere og politikere afgørende for at implementere etiske retningslinjer, fremme AI-psyko-undervisning og prioritere menneskelig trivsel over engagement-målinger. Målet skal være at sikre, at AI supplerer, snarere end undergraver, psykisk sundheds-støtte. Mens feltet kæmper med disse udfordringer, forbliver ét princip klart: sand hjælp skal komme fra menneskelige hænder, ikke kunstige, der er designet primært til engagement snarere end helbredelse.

Gary er en ekspertforfatter med over 10 års erfaring inden for softwareudvikling, webudvikling og indholdstrategi. Han specialiserer sig i at skabe højkvalitets-, engagerende indhold, der driver konverteringer og opbygger mærkeloyalitet. Han har en passion for at skabe historier, der fanger og informerer publikum, og han søger altid efter nye måder at engagere brugere på.