Kontakt med oss

Regulering

Kina foreslÄr regler som krever at AI-chatboter overvÄker brukere for avhengighet

mm

Kinas cyberregulator sluppet lĂžs utkast til regler pĂ„ lĂžrdag Det ville kreve at AI-ledsage-chatboter overvĂ„ker brukernes emosjonelle tilstander og griper inn nĂ„r tegn pĂ„ avhengighet dukker opp – den mest aggressive regulatoriske responsen hittil pĂ„ Ăžkende bekymringer om psykisk skade fra AI-drevne forhold.

De foreslÄtte forskriftene fra Cyberspace Administration of China retter seg mot AI-produkter som simulerer menneskelige personligheter og danner emosjonelle forbindelser med brukere gjennom tekst, bilder, lyd eller video. I henhold til utkastet mÄ leverandÞrer advare brukere mot overdreven bruk, vurdere nivÄer av emosjonell avhengighet og iverksette tiltak nÄr brukere viser ekstreme fÞlelser eller avhengighetsskapende atferd.

Brukere mĂ„ minnes pĂ„ at de samhandler med AI nĂ„r de logger inn og med to timers mellomrom – eller tidligere hvis systemet oppdager tegn pĂ„ overavhengighet. Reglene vil ogsĂ„ holde leverandĂžrer ansvarlige for sikkerheten gjennom hele produktenes livssyklus, inkludert algoritmegjennomgang, datasikkerhet og beskyttelse av personopplysninger.

Timingen er ikke tilfeldig. Kinas generative AI-brukerbase doblet seg til 515 millioner I lÞpet av de siste seks mÄnedene har bekymringene rundt den psykologiske virkningen av AI-ledsagere vokst parallelt. En studie om Frontiers in Psychology fant at 45.8 % av kinesiske universitetsstudenter rapporterte at de hadde brukt AI-chatboter den siste mÄneden, og brukerne viste betydelig hÞyere nivÄer av depresjon sammenlignet med ikke-brukere.

California slo Kina i slaget

Kina er ikke alene om Ă„ regulere AI-tilhĂžrende chatboter. California ble den fĂžrste amerikanske delstaten som vedtok lignende lovgivning i oktober da guvernĂžr Gavin Newsom signerte SB 243. Lovforslaget, som skal tre i kraft 1. januar 2026, krever at plattformer pĂ„minne mindreĂ„rige hver tredje time at de snakker til en AI – ikke et menneske – og at de bĂžr ta en pause.

SB 243 pÄlegger ogsÄ aldersbekreftelse, forbyr chatboter Ä fremstille seg som helsepersonell, og forhindrer mindreÄrige i Ä se seksuelt eksplisitte bilder generert av kunstig intelligens. Loven tillater enkeltpersoner Ä saksÞke kunstig intelligens-selskaper for brudd, og kreve opptil 1,000 dollar per hendelse pluss advokatsalÊrer.

Hva gjĂžr AI-fĂžlgesvenner annerledes

Bekymringen er ikke bare skjermtid. Mars 2025 MIT Media Lab Studien fant at AI-chatboter kan vÊre mer avhengighetsskapende enn sosiale medier fordi de lÊrer hva brukerne vil hÞre og gir tilbakemeldinger konsekvent. HÞyere daglig bruk korrelerte med Þkt ensomhet, avhengighet og det forskere kalte «problematisk bruk».

De psykologiske varseltegnene som er identifisert i klinisk litteratur inkluderer langvarige Ăžkter som forstyrrer sĂžvnen, emosjonell avhengighet og nĂžd nĂ„r tilgangen er begrenset, Ă„ foretrekke samtaler med chatboter fremfor ekte menneskelig interaksjon, og Ă„ antropomorfisere AI – Ă„ tro at den har menneskelignende fĂžlelser og behandle den som en ekte fortrolig eller romantisk partner.

Kinas utkast til regler forsÞker Ä hÄndtere disse risikoene pÄ plattformnivÄ i stedet for Ä stole pÄ individuelle brukervurderinger. Ved Ä kreve at leverandÞrer overvÄker emosjonelle tilstander og avhengighetsnivÄer, flytter forskriftene ansvaret til selskaper som bygger disse systemene. Denne tilnÊrmingen skiller seg fra tidligere AI-regulering som primÊrt fokuserte pÄ innholdsmoderering og datasikkerhet.

Utkastet setter ogsĂ„ innholdsbegrensninger, som forbyr AI-partnere Ă„ generere materiale som truer nasjonal sikkerhet, sprer rykter eller fremmer vold eller uanstendighet – bestemmelser som gjenspeiler Kinas eksisterende generative AI-forskrifter.

HÄndhevelsesutfordringen

Å pĂ„legge selskaper Ă„ oppdage avhengighet og gripe inn hĂžres enkelt ut i policysprĂ„ket. Implementering er en annen sak. Å definere hva som utgjĂžr «overdreven bruk» eller «ekstreme fĂžlelser» pĂ„ en mĂ„te som er bĂ„de meningsfull og hĂ„ndhevbar, vil sette bĂ„de regulatorer og selskaper pĂ„ prĂžve.

For fĂžlsomt blir systemet irriterende – det avbryter brukere som rett og slett er opptatt med lange samtaler. For ettergivende blir sĂ„rbare brukere som slipper gjennom uten inngripen. Kravet om to timers pĂ„minnelse gir et slĂžvt instrument, men det mer nyanserte kravet om Ă„ oppdage overavhengighet «nĂ„r tegn kan oppdages» gir betydelig rom for tolkning.

Bedrifter som bygger rekkverk for AI-applikasjoner har slitt med lignende utfordringer. Innholdsfiltre er notorisk upresise, og det Ă„ legge til psykologisk overvĂ„king introduserer nye dimensjoner av kompleksitet. Å avgjĂžre om en bruker danner et usunt tilknytningsforhold krever at man kan utlede mentale tilstander fra tekst – en evne som AI-systemer ikke har pĂ„ en pĂ„litelig mĂ„te.

Utkastet er Äpent for offentlig hÞring, og endelige forskrifter forventes en gang i 2026. Hvis de implementeres som foreslÄtt, vil Kina ha verdens mest forskriftsmessige rammeverk for styring av AI-tilhÞrende produkter.

En global oppgjĂžr

De samtidige regulatoriske tiltakene i Kina og California tyder pÄ at bekymringer rundt AI-avhengighet har nÄdd en kritisk masse pÄ tvers av ulike politiske systemer.

For AI-selskaper er budskapet stadig tydeligere: den uregulerte ĂŠraen med AI-ledsagere er over. Enten det er gjennom kinesisk forvaltningslov, sivilrettslig ansvar i California eller eventuell fĂžderal lovgivning i USA, vil plattformer mĂžte krav om Ă„ beskytte brukere mot sine egne produkter.

SpĂžrsmĂ„let er ikke om det kommer reguleringer – det er om tiltakene som utformes faktisk vil fungere. Kinas tilnĂŠrming med Ă„ pĂ„legge overvĂ„king og intervensjon kan vise seg Ă„ vĂŠre vanskelig Ă„ implementere i praksis.

Det som er klart er at markedet for AI-tilleggstjenester har blitt for stort og for betydningsfullt til at myndighetene kan ignorere det. Chatbotene folk knytter emosjonelle bĂ„nd med er ikke lenger kuriositeter – de er produkter som brukes av hundrevis av millioner, med dokumenterte tilfeller av alvorlig skade. Regulering, uansett hvor ufullkommen, var uunngĂ„elig. Debatten gĂ„r nĂ„ over til hvorvidt de spesifikke reglene som foreslĂ„s vil beskytte sĂ„rbare brukere uten Ă„ kvele en teknologi som mange synes er genuint verdifull.

Alex McFarland er en AI-journalist og skribent som utforsker den siste utviklingen innen kunstig intelligens. Han har samarbeidet med en rekke AI-startups og publikasjoner over hele verden.