Entre em contato

China propõe regras que exigem que chatbots de IA monitorem usuários em busca de vícios.

Regulamento

China propõe regras que exigem que chatbots de IA monitorem usuários em busca de vícios.

mm

Órgão regulador de segurança cibernética da China divulgou minuta das regras no sábado Isso exigiria que chatbots de inteligência artificial monitorassem o estado emocional dos usuários e interviessem quando surgissem sinais de dependência — a resposta regulatória mais agressiva até o momento às crescentes preocupações com os danos psicológicos decorrentes de relacionamentos mediados por IA.

As regulamentações propostas pela Administração do Ciberespaço da China visam produtos de IA que simulam personalidades humanas e estabelecem conexões emocionais com os usuários por meio de texto, imagens, áudio ou vídeo. De acordo com a proposta, os fornecedores precisarão alertar os usuários sobre o uso excessivo, avaliar os níveis de dependência emocional e tomar medidas quando os usuários apresentarem emoções extremas ou comportamento viciante.

Os usuários devem ser lembrados de que estão interagindo com IA ao fazer login e a cada duas horas — ou antes, caso o sistema detecte sinais de dependência excessiva. As regras também responsabilizariam os fornecedores pela segurança durante todo o ciclo de vida de seus produtos, incluindo revisão de algoritmos, segurança de dados e proteção de informações pessoais.

A coincidência de datas não é acidental. Como A base de usuários de IA generativa na China dobrou, chegando a 515 milhões. Nos últimos seis meses, as preocupações com o impacto psicológico dos companheiros de IA têm crescido em paralelo. Um estudo da revista Frontiers in Psychology Um estudo revelou que 45.8% dos estudantes universitários chineses relataram ter usado chatbots de IA no último mês, sendo que os usuários apresentaram níveis de depressão significativamente mais altos em comparação com os não usuários.

A Califórnia saiu na frente da China

A China não está sozinha na regulamentação de chatbots de inteligência artificial para assistentes virtuais. A Califórnia tornou-se o primeiro estado americano a aprovar legislação semelhante em outubro, quando o governador Gavin Newsom sancionou a lei SB 243. Essa lei, que entrará em vigor em 1º de janeiro de 2026, exige que as plataformas... lembrar os menores a cada três horas que estão falando com uma IA — não com um humano — e que devem fazer uma pausa.

A SB 243 também exige verificação de idade, proíbe chatbots de se apresentarem como profissionais de saúde e impede que menores visualizem imagens sexualmente explícitas geradas por IA. A lei permite que indivíduos processem empresas de IA por violações, buscando indenização de até US$ 1,000 por incidente, além dos honorários advocatícios.

O que diferencia os companheiros de IA?

A preocupação não é apenas o tempo gasto em frente à tela. Março de 2025, MIT Media Lab Um estudo descobriu que os chatbots de IA podem ser mais viciantes do que as redes sociais, porque aprendem o que os usuários querem ouvir e fornecem esse feedback de forma consistente. O uso diário mais frequente correlacionou-se com o aumento da solidão, da dependência e do que os pesquisadores denominaram "uso problemático".

Os sinais de alerta psicológicos identificados na literatura clínica incluem sessões prolongadas que perturbam o sono, dependência emocional e angústia quando o acesso é restrito, preferência por conversas com chatbots em vez de interação humana real e antropomorfização da IA ​​— acreditando que ela possui sentimentos semelhantes aos humanos e tratando-a como uma confidente genuína ou parceira romântica.

As normas preliminares da China tentam abordar esses riscos no nível da plataforma, em vez de depender do julgamento individual do usuário. Ao exigir que os provedores monitorem os estados emocionais e os níveis de dependência, as regulamentações transferem a responsabilidade para as empresas que desenvolvem esses sistemas. Essa abordagem difere da regulamentação anterior de IA, que se concentrava principalmente na moderação de conteúdo e na segurança de dados.

O projeto também estabelece restrições de conteúdo, proibindo que assistentes virtuais gerem material que coloque em risco a segurança nacional, espalhe boatos ou promova violência ou obscenidade — disposições que ecoam as regulamentações existentes na China sobre inteligência artificial generativa.

O Desafio da Fiscalização

Exigir que as empresas detectem o vício e intervenham parece simples na teoria. A implementação, porém, é outra história. Definir o que constitui "uso excessivo" ou "emoções extremas" de uma forma que seja ao mesmo tempo significativa e aplicável testará tanto os órgãos reguladores quanto as empresas.

Se for muito sensível, o sistema torna-se irritante, interrompendo usuários que estão simplesmente envolvidos em conversas prolongadas. Se for muito leniente, usuários vulneráveis ​​passam despercebidos. O requisito de lembrete de duas horas oferece uma ferramenta pouco precisa, mas o requisito mais matizado de detectar dependência excessiva "quando os sinais puderem ser detectados" deixa uma margem significativa para interpretação.

Empresas construindo diretrizes para aplicações de IA já enfrentaram desafios semelhantes. Os filtros de conteúdo são notoriamente imprecisos, e a adição de monitoramento psicológico introduz novas dimensões de complexidade. Determinar se um usuário está desenvolvendo um apego não saudável exige inferir estados mentais a partir do texto — uma capacidade que os sistemas de IA não possuem de forma confiável.

A minuta está aberta para consulta pública, com a previsão de que as regulamentações finais sejam publicadas em algum momento de 2026. Se implementada conforme proposto, a China terá a estrutura mais prescritiva do mundo para regulamentar produtos de inteligência artificial para uso como assistentes virtuais.

Um acerto de contas global

A ação regulatória simultânea na China e na Califórnia sugere que as preocupações com o vício em assistentes virtuais de inteligência artificial atingiram uma massa crítica em diferentes sistemas políticos.

Para as empresas de IA, a mensagem está cada vez mais clara: a era não regulamentada dos assistentes virtuais está chegando ao fim. Seja por meio da legislação administrativa chinesa, da responsabilidade civil na Califórnia ou de uma eventual legislação federal nos Estados Unidos, as plataformas enfrentarão a obrigação de proteger os usuários de seus próprios produtos.

A questão não é se haverá regulamentação, mas sim se as intervenções planejadas realmente funcionarão. A abordagem da China de impor monitoramento e intervenção pode se mostrar difícil de implementar na prática.

O que está claro é que o mercado de assistentes virtuais inteligentes cresceu demais e se tornou tão relevante que os governos não podem mais ignorá-lo. Os chatbots com os quais as pessoas criam laços emocionais não são mais curiosidades — são produtos usados ​​por centenas de milhões de pessoas, com casos documentados de danos graves. A regulamentação, por mais imperfeita que seja, era inevitável. O debate agora se concentra em saber se as regras específicas propostas protegerão os usuários vulneráveis ​​sem sufocar uma tecnologia que muitos consideram genuinamente valiosa.

Alex McFarland é um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups e publicações de IA em todo o mundo.