reglering
Kina föreslÄr regler som krÀver att AI-chatbotar övervakar anvÀndare för beroende

Kinas cyberregulator slĂ€ppt utkast till regler pĂ„ lördag det skulle krĂ€va att AI-chattrobotar övervakar anvĂ€ndarnas kĂ€nslomĂ€ssiga tillstĂ„nd och ingriper nĂ€r tecken pĂ„ beroende uppstĂ„r â den hittills mest aggressiva regulatoriska reaktionen pĂ„ vĂ€xande oro för psykisk skada frĂ„n AI-drivna relationer.
De föreslagna reglerna frÄn Kinas cyberspaceadministration riktar sig mot AI-produkter som simulerar mÀnskliga personligheter och skapar kÀnslomÀssiga kontakter med anvÀndare genom text, bilder, ljud eller video. Enligt utkastet skulle leverantörer behöva varna anvÀndare för överdriven anvÀndning, bedöma nivÄer av emotionellt beroende och vidta ÄtgÀrder nÀr anvÀndare uppvisar extrema kÀnslor eller beroendeframkallande beteende.
AnvĂ€ndare mĂ„ste pĂ„minnas om att de interagerar med AI nĂ€r de loggar in och med tvĂ„ timmars mellanrum â eller tidigare om systemet upptĂ€cker tecken pĂ„ överberoende. Reglerna skulle ocksĂ„ hĂ„lla leverantörer ansvariga för sĂ€kerheten under hela sina produkters livscykel, inklusive algoritmgranskning, datasĂ€kerhet och skydd av personlig information.
Tidpunkten Àr inte en slump. Kinas generativa AI-anvÀndarbas fördubblades till 515 miljoner Under de senaste sex mÄnaderna har oron kring den psykologiska effekten av AI-följeslagare vuxit parallellt. En studie om Frontiers in Psychology fann att 45.8 % av kinesiska universitetsstudenter rapporterade att de anvÀnt AI-chattrobotar den senaste mÄnaden, dÀr anvÀndare uppvisade betydligt högre nivÄer av depression jÀmfört med icke-anvÀndare.
Kalifornien slog Kina i strid
Kina Ă€r inte ensamt om att reglera AI-baserade chattrobotar. Kalifornien blev den första amerikanska delstaten att anta liknande lagstiftning i oktober nĂ€r guvernör Gavin Newsom undertecknade SB 243. Den lagen, som ska trĂ€da i kraft den 1 januari 2026, krĂ€ver att plattformar pĂ„minna minderĂ„riga var tredje timme att de pratar med en AI â inte en mĂ€nniska â och att ta en paus.
SB 243 föreskriver Àven Äldersverifiering, förbjuder chatbotar att utge sig för att vara vÄrdpersonal och hindrar minderÄriga frÄn att se sexuellt explicita bilder genererade av AI. Lagen tillÄter individer att stÀmma AI-företag för övertrÀdelser och krÀva upp till 1 000 dollar per incident plus advokatarvoden.
Vad som gör AI-följeslagare annorlunda
Oron Àr inte bara skÀrmtid. Mars 2025 MIT Media Lab Studien visade att AI-chattrobotar kan vara mer beroendeframkallande Àn sociala medier eftersom de lÀr sig vad anvÀndarna vill höra och ger den feedbacken konsekvent. Högre daglig anvÀndning korrelerade med ökad ensamhet, beroende och vad forskare kallade "problematisk anvÀndning".
De psykologiska varningstecknen som identifierats i klinisk litteratur inkluderar lĂ„ngvariga sessioner som stör sömnen, emotionellt beroende och Ă„ngest nĂ€r Ă„tkomsten Ă€r begrĂ€nsad, att föredra samtal med chattrobotar framför verklig mĂ€nsklig interaktion, och att antropomorfisera AI â att tro att den har mĂ€nniskoliknande kĂ€nslor och behandla den som en genuin förtrogen eller romantisk partner.
Kinas utkast till regler försöker hantera dessa risker pÄ plattformsnivÄ snarare Àn att förlita sig pÄ individuella anvÀndarbedömningar. Genom att krÀva att leverantörer övervakar kÀnslomÀssiga tillstÄnd och beroendenivÄer flyttar reglerna ansvaret till företag som bygger dessa system. Denna strategi skiljer sig frÄn tidigare AI-reglering som frÀmst fokuserade pÄ innehÄllsmoderering och datasÀkerhet.
Utkastet faststĂ€ller ocksĂ„ innehĂ„llsbegrĂ€nsningar och förbjuder AI-medarbetare att generera material som Ă€ventyrar den nationella sĂ€kerheten, sprider rykten eller frĂ€mjar vĂ„ld eller obsceniteter â bestĂ€mmelser som Ă„terspeglar Kinas befintliga regler för generativ AI.
Utmaningen med verkstÀlligheten
Att krÀva att företag ska upptÀcka missbruk och ingripa lÄter enkelt i policyformulering. Implementering Àr en annan sak. Att definiera vad som utgör "överdriven anvÀndning" eller "extrema kÀnslor" pÄ ett sÀtt som Àr bÄde meningsfullt och verkstÀllbart kommer att sÀtta bÄde tillsynsmyndigheter och företag pÄ prov.
För kĂ€nsligt blir systemet irriterande â det avbryter anvĂ€ndare som helt enkelt Ă€r engagerade i utdragna samtal. För överseende gör att sĂ„rbara anvĂ€ndare slinker igenom utan ingripande. Kravet pĂ„ tvĂ„ timmars pĂ„minnelse Ă€r ett trubbigt instrument, men det mer nyanserade kravet pĂ„ att upptĂ€cka överberoende "nĂ€r tecken kan upptĂ€ckas" lĂ€mnar betydande tolkningsutrymme.
Företag som bygger skyddsrĂ€cken för AI-applikationer har kĂ€mpat med liknande utmaningar. InnehĂ„llsfilter Ă€r notoriskt oprecisa, och att lĂ€gga till psykologisk övervakning introducerar nya dimensioner av komplexitet. Att avgöra om en anvĂ€ndare skapar en ohĂ€lsosam anknytning krĂ€ver att man kan hĂ€rleda mentala tillstĂ„nd frĂ„n text â en förmĂ„ga som AI-system inte har pĂ„ ett tillförlitligt sĂ€tt.
Utkastet Àr öppet för offentliga kommentarer, och slutgiltiga regler förvÀntas nÄgon gÄng under 2026. Om det implementeras som föreslaget skulle Kina ha vÀrldens mest föreskrivande ramverk för att styra AI-kompanjonprodukter.
En global uppgörelse
De samtidiga regleringsÄtgÀrderna i Kina och Kalifornien tyder pÄ att oron kring AI-relaterade beroenden har nÄtt en kritisk massa i olika politiska system.
För AI-företag Àr budskapet allt tydligare: den oreglerade eran med AI-följeslagare Àr över. Oavsett om det sker genom kinesisk förvaltningsrÀtt, kaliforniskt civilrÀttsligt ansvar eller eventuell federal lagstiftning i USA, kommer plattformar att stÀllas inför krav för att skydda anvÀndare frÄn sina egna produkter.
FrĂ„gan Ă€r inte om reglering Ă€r pĂ„ vĂ€g â utan om de insatser som utformas faktiskt kommer att fungera. Kinas tillvĂ€gagĂ„ngssĂ€tt att krĂ€va övervakning och ingripande kan visa sig svĂ„rt att genomföra i praktiken.
Det som Ă€r tydligt Ă€r att marknaden för AI-följeslagare har blivit för stor och för betydelsefull för att regeringar ska kunna ignorera den. De chattrobotar som mĂ€nniskor knyter kĂ€nslomĂ€ssiga band till Ă€r inte lĂ€ngre kuriosa â de Ă€r produkter som anvĂ€nds av hundratals miljoner, med dokumenterade fall av allvarlig skada. Reglering, hur ofullkomlig den Ă€n mĂ„ vara, var oundviklig. Debatten skiftar nu till huruvida de specifika regler som föreslĂ„s kommer att skydda sĂ„rbara anvĂ€ndare utan att kvĂ€va en teknik som mĂ„nga finner genuint vĂ€rdefull.












