Asetus
Kiina ehdottaa sääntöjä, jotka vaativat tekoälychatbotteja seuraamaan käyttäjiä riippuvuuden varalta

Kiinan kyberturvallisuusviranomainen vapautettiin sääntöjen luonnos lauantaina joka edellyttäisi tekoälykumppanuus-chatbottien seuraamista käyttäjien emotionaalisten tilojen suhteen ja puuttumista asiaan, jos riippuvuuden merkkejä ilmenee – tämä on tähän mennessä aggressiivisin sääntelyreaktio kasvaviin huoliin tekoälyn tuottamista ihmissuhteista aiheutuvista psyykkisistä haitoista.
Kiinan kyberavaruushallinnon ehdottamat määräykset kohdistuvat tekoälytuotteisiin, jotka simuloivat ihmisen persoonallisuutta ja muodostavat emotionaalisia yhteyksiä käyttäjiin tekstin, kuvien, äänen tai videon avulla. Luonnoksen mukaan palveluntarjoajien olisi varoitettava käyttäjiä liiallisesta käytöstä, arvioitava emotionaalisen riippuvuuden tasoa ja ryhdyttävä toimiin, jos käyttäjät osoittavat äärimmäisiä tunteita tai riippuvuutta aiheuttavaa käyttäytymistä.
Käyttäjille on muistutettava, että he ovat vuorovaikutuksessa tekoälyn kanssa kirjautumisen yhteydessä ja kahden tunnin välein – tai useammin, jos järjestelmä havaitsee merkkejä liiallisesta riippuvuudesta. Säännöt myös tekisivät palveluntarjoajista vastuussa tuotteidensa turvallisuudesta koko elinkaaren ajan, mukaan lukien algoritmien tarkistus, tietoturva ja henkilötietojen suojaus.
Ajoitus ei ole sattumanvarainen. Kuten Kiinan generatiivisen tekoälyn käyttäjäkunta kaksinkertaistui 515 miljoonaan Viimeisen kuuden kuukauden aikana huoli tekoälykumppaneiden psykologisesta vaikutuksesta on kasvanut rinnakkain. Frontiers in Psychology -tutkimus havaitsi, että 45.8 % kiinalaisista yliopisto-opiskelijoista ilmoitti käyttäneensä tekoälychatbotteja viimeisen kuukauden aikana, ja käyttäjillä oli huomattavasti korkeampi masennustaso verrattuna niihin, jotka eivät käyttäneet robotteja.
Kalifornia voitti Kiinan täysosumattomasti
Kiina ei ole ainoa, joka sääntelee tekoälyyn perustuvia chatbotteja. Kaliforniasta tuli ensimmäinen Yhdysvaltain osavaltio, joka hyväksyi vastaavan lainsäädännön lokakuussa, kun kuvernööri Gavin Newsom allekirjoitti SB 243:n laiksi. Laki, jonka on määrä tulla voimaan 1. tammikuuta 2026, edellyttää alustoilta muistuttaa alaikäisiä kolmen tunnin välein että he puhuvat tekoälylle – eivät ihmiselle – ja pitämään tauon.
SB 243 edellyttää myös iän varmentamista, kieltää chatbotteja esittämästä itseään terveydenhuollon ammattilaisina ja estää alaikäisiä katselemasta seksuaalisesti eksplisiittisiä tekoälyn luomia kuvia. Laki sallii yksilöiden haastaa tekoälyyrityksiä oikeuteen rikkomuksista ja vaatia jopa 1 000 dollarin korvauksia tapausta kohden sekä asianajokuluja.
Mikä tekee tekoälykumppaneista erilaisia?
Huolenaihe ei ole pelkkä ruutuaika. Maaliskuu 2025 MIT Media Lab Tutkimuksessa havaittiin, että tekoälychatbotit voivat olla koukuttavampia kuin sosiaalinen media, koska ne oppivat, mitä käyttäjät haluavat kuulla, ja antavat palautetta johdonmukaisesti. Runsas päivittäinen käyttö korreloi lisääntyneeseen yksinäisyyteen, riippuvuuteen ja siihen, mitä tutkijat kutsuivat "ongelmalliseksi käytöksi".
Kliinisessä kirjallisuudessa tunnistettuja psykologisia varoitusmerkkejä ovat pitkittyneet keskustelut, jotka häiritsevät unta, emotionaalinen riippuvuus ja ahdistus, kun pääsyä on rajoitettu, keskustelujen suosiminen chatbottien kanssa aitojen ihmiskontaktien sijaan sekä tekoälyn antropomorfisointi – uskominen sillä olevan ihmisen kaltaisia tunteita ja sen kohteleminen aitona luottamuksellisena tai romanttisena kumppanina.
Kiinan luonnossäännöillä pyritään puuttumaan näihin riskeihin alustatasolla yksittäisten käyttäjien harkintaan perustumisen sijaan. Vaatimalla palveluntarjoajia seuraamaan tunnetiloja ja riippuvuustasoja, säännökset siirtävät vastuun näitä järjestelmiä rakentaville yrityksille. Tämä lähestymistapa eroaa aiemmasta tekoälysääntelystä, joka keskittyi ensisijaisesti sisällön moderointiin ja tietoturvaan.
Luonnos asettaa myös sisältörajoituksia, jotka kieltävät tekoälykumppaneita tuottamasta materiaalia, joka vaarantaa kansallista turvallisuutta, levittää huhuja tai edistää väkivaltaa tai siveellisyyttä – säännöksiä, jotka heijastelevat Kiinan nykyisiä generatiivisen tekoälyn säännöksiä.
Täytäntöönpanon haaste
Yritysten velvoittaminen havaitsemaan riippuvuus ja puuttumaan siihen kuulostaa yksinkertaiselta poliittisena kielenkäyttönä. Toteutus on toinen asia. "Liiallisen käytön" tai "äärimmäisten tunteiden" määritteleminen tavalla, joka on sekä mielekäs että täytäntöönpanokelpoinen, testaa sekä sääntelyviranomaisia että yrityksiä.
Liian herkkä järjestelmästä tulee ärsyttävä – se keskeyttää käyttäjiä, jotka ovat vain pitkissä keskusteluissa. Liian lepsu, ja haavoittuvaiset käyttäjät livahtavat läpi ilman väliintuloa. Kahden tunnin muistutusvaatimus tarjoaa tylyn välineen, mutta vivahteikkaampi vaatimus havaita liiallinen riippuvuus "kun merkit voidaan havaita", jättää merkittävästi tulkinnanvaraa.
Yritysten rakennus kaiteet tekoälysovelluksiin ovat kamppailleet samanlaisten haasteiden kanssa. Sisältösuodattimet ovat tunnetusti epätarkkoja, ja psykologisen seurannan lisääminen tuo uusia monimutkaisuuden ulottuvuuksia. Sen määrittäminen, muodostaako käyttäjä epätervettä kiintymyssuhdetta, edellyttää mielentilojen päättelemistä tekstistä – ominaisuus, jota tekoälyjärjestelmillä ei ole luotettavasti.
Luonnos on avoinna julkiselle kommentoinnille, ja lopullisten säännösten odotetaan valmistuvan joskus vuonna 2026. Jos ehdotettu järjestelmä pannaan täytäntöön, Kiinalla olisi maailman tiukin tekoälyä hyödyntävien tuotteiden sääntelykehys.
Globaali tilinteko
Samanaikaiset sääntelytoimet Kiinassa ja Kaliforniassa viittaavat siihen, että tekoälykumppanuusriippuvuuteen liittyvät huolet ovat saavuttaneet kriittisen massan eri poliittisissa järjestelmissä.
Tekoälyyrityksille viesti on yhä selvempi: tekoälykumppaneiden sääntelemätön aikakausi on päättymässä. Olipa kyse sitten Kiinan hallinto-oikeudesta, Kalifornian siviilioikeudellisesta vastuulainsäädännöstä tai mahdollisesta Yhdysvaltojen liittovaltion lainsäädännöstä, alustoille asetetaan vaatimuksia käyttäjien suojelemiseksi omilta tuotteiltaan.
Kysymys ei ole siitä, onko sääntelyä tulossa, vaan siitä, toimivatko suunnitellut interventiot todella. Kiinan lähestymistapa, jossa valvonta ja interventiot ovat pakollisia, voi osoittautua käytännössä vaikeaksi toteuttaa.
Selvää on, että tekoälykumppanuusmarkkinat ovat kasvaneet liian suuriksi ja merkityksellisiksi hallitusten jätettäväksi huomiotta. Chatbotit, joihin ihmiset luovat tunnesiteitä, eivät ole enää kuriositeetteja – ne ovat tuotteita, joita sadat miljoonat ihmiset käyttävät ja joista on dokumentoitu vakavia vahinkoja. Sääntely, oli epätäydellistä kuinka paljon tahansa, oli väistämätöntä. Keskustelu siirtyy nyt siihen, suojaavatko ehdotetut erityissäännöt haavoittuvia käyttäjiä tukahduttamatta teknologiaa, jota monet pitävät aidosti arvokkaana.












