Regulament
China propune reguli care impun chatbot-urilor cu inteligență artificială să monitorizeze utilizatorii pentru dependenți

Autoritatea de reglementare în domeniul cibernetic din China a fost eliberată proiectul de regulament sâmbătă asta ar necesita ca chatboții însoțitori bazați pe inteligență artificială să monitorizeze stările emoționale ale utilizatorilor și să intervină atunci când apar semne de dependență – cel mai agresiv răspuns de reglementare de până acum la îngrijorările tot mai mari cu privire la daunele psihologice cauzate de relațiile bazate pe inteligență artificială.
Reglementările propuse de Administrația Spațiului Cibernetic din China vizează produsele de inteligență artificială care simulează personalitățile umane și formează conexiuni emoționale cu utilizatorii prin text, imagini, audio sau video. Conform proiectului, furnizorii ar trebui să avertizeze utilizatorii împotriva utilizării excesive, să evalueze nivelurile de dependență emoțională și să ia măsuri atunci când utilizatorii manifestă emoții extreme sau comportamente adictive.
Utilizatorilor trebuie să li se reamintească faptul că interacționează cu inteligența artificială atunci când se conectează și la intervale de două ore - sau mai devreme dacă sistemul detectează semne de dependență excesivă. Regulile ar face, de asemenea, furnizorii responsabili pentru siguranța pe tot parcursul ciclului de viață al produselor lor, inclusiv revizuirea algoritmilor, securitatea datelor și protecția informațiilor personale.
Momentul ales nu este întâmplător. Așa cum Baza de utilizatori de inteligență artificială generativă din China s-a dublat, ajungând la 515 milioane În ultimele șase luni, îngrijorările legate de impactul psihologic al însoțitorilor inteligenței artificiale au crescut în paralel. Un studiu Frontiers in Psychology a constatat că 45.8% dintre studenții universitari chinezi au raportat că au folosit chatbot-uri cu inteligență artificială în ultima lună, utilizatorii prezentând niveluri semnificativ mai ridicate de depresie în comparație cu non-utilizatorii.
California a învins China la lovitură
China nu este singura care reglementează chatboții companion cu inteligență artificială. California a devenit primul stat american care a adoptat o legislație similară în octombrie, când guvernatorul Gavin Newsom a semnat legea SB 243. Proiectul de lege, care urmează să intre în vigoare la 1 ianuarie 2026, impune platformelor să... reamintiți minorilor la fiecare trei ore că vorbesc cu o inteligență artificială — nu cu un om — și să ia o pauză.
SB 243 impune, de asemenea, verificarea vârstei, interzice chatbot-urilor să se prezinte drept profesioniști din domeniul sănătății și împiedică minorii să vizualizeze imagini generate de inteligența artificială cu conținut sexual explicit. Legea permite persoanelor să dea în judecată companiile de inteligență artificială pentru încălcări, solicitând despăgubiri de până la 1,000 de dolari per incident, plus onorariile avocaților.
Ceea ce diferențiază însoțitorii cu inteligență artificială
Problema nu este doar timpul petrecut pe ecran. Martie 2025, Laboratorul Media MIT Un studiu a constatat că chatboții cu inteligență artificială pot crea mai multă dependență decât rețelele sociale, deoarece învață ce vor utilizatorii să audă și oferă acel feedback în mod constant. O utilizare zilnică mai mare a fost corelată cu o singurătate, o dependență și ceea ce cercetătorii au numit „utilizare problematică” sporite.
Semnele de avertizare psihologică identificate în literatura clinică includ sesiuni prelungite care perturbă somnul, dependență emoțională și suferință atunci când accesul este restricționat, preferința conversațiilor cu chatboți în locul interacțiunii umane reale și antropomorfizarea IA - crezând că posedă sentimente asemănătoare oamenilor și tratând-o ca pe un confident autentic sau un partener romantic.
Proiectul de reguli al Chinei încearcă să abordeze aceste riscuri la nivel de platformă, mai degrabă decât să se bazeze pe judecata individuală a utilizatorilor. Prin solicitarea furnizorilor de a monitoriza stările emoționale și nivelurile de dependență, reglementările transferă responsabilitatea către companiile care construiesc aceste sisteme. Această abordare diferă de reglementările anterioare privind inteligența artificială, axate în principal pe moderarea conținutului și securitatea datelor.
Proiectul stabilește, de asemenea, restricții de conținut, interzicând însoțitorilor de inteligență artificială să genereze materiale care pun în pericol securitatea națională, răspândesc zvonuri sau promovează violența sau obscenitatea - prevederi care reflectă reglementările existente din China privind inteligența artificială generativă.
Provocarea aplicării legii
Obligativitatea detectării dependenței și intervenției companiilor pare simplă în limbajul politicilor. Implementarea este o altă problemă. Definirea a ceea ce constituie „consum excesiv” sau „emoții extreme” într-un mod care să fie atât semnificativ, cât și aplicabil va testa atât autoritățile de reglementare, cât și companiile.
Dacă este prea sensibil, sistemul devine enervant – întrerupând utilizatorii care sunt pur și simplu angajați în conversații lungi. Dacă este prea indulgent, utilizatorii vulnerabili se strecoară fără intervenție. Cerința de aducere aminte la două ore oferă un instrument direct, dar cerința mai nuanțată de a detecta dependența excesivă „atunci când pot fi detectate semne” lasă o marjă de interpretare semnificativă.
Construirea de companii balustrade pentru aplicații de inteligență artificială s-au confruntat cu provocări similare. Filtrele de conținut sunt notoriu de imprecise, iar adăugarea monitorizării psihologice introduce noi dimensiuni de complexitate. Determinarea dacă un utilizator formează un atașament nesănătos necesită deducerea stărilor mentale din text - o capacitate pe care sistemele de inteligență artificială nu o posedă în mod fiabil.
Proiectul este deschis comentariilor publice, regulamentul final fiind așteptat cândva în 2026. Dacă va fi implementat conform propunerii, China ar avea cel mai prescriptiv cadru din lume pentru reglementarea produselor însoțitoare de inteligență artificială.
O socoteală globală
Acțiunile de reglementare simultane din China și California sugerează că îngrijorările legate de dependența de inteligența artificială însoțitoare au atins o masă critică în diferite sisteme politice.
Pentru companiile de inteligență artificială, mesajul este din ce în ce mai clar: era nereglementată a companionilor de inteligență artificială se apropie de sfârșit. Fie prin legislația administrativă chineză, răspunderea civilă din California sau o eventuală legislație federală din Statele Unite, platformele se vor confrunta cu cerințe de protejare a utilizatorilor de propriile produse.
Întrebarea nu este dacă vor fi implementate reglementări, ci dacă intervențiile concepute vor funcționa cu adevărat. Abordarea Chinei de a impune monitorizarea și intervenția s-ar putea dovedi dificil de implementat în practică.
Ceea ce este clar este că piața de aplicații bazate pe inteligență artificială a crescut prea mult și a devenit prea importantă pentru ca guvernele să o poată ignora. Chatboții cu care oamenii formează legături emoționale nu mai sunt niște curiozități - sunt produse folosite de sute de milioane de oameni, cu cazuri documentate de vătămări grave. Reglementarea, oricât de imperfectă, era inevitabilă. Dezbaterea se îndreaptă acum către întrebarea dacă regulile specifice propuse vor proteja utilizatorii vulnerabili fără a sufoca o tehnologie pe care mulți o consideră cu adevărat valoroasă.












