يمكن للذكاء الاصطناعي أن يكون أكثر فعالية من أي وقت مضى
中国网信办于周六发布了征求意见稿,拟要求AI陪伴类聊天机器人监测用户情绪状态,并在出现成瘾迹象时进行干预——这是针对日益增长的AI关系造成心理伤害担忧的最严厉监管回应。国家互联网信息办公室提出的这些规定,针对的是通过文本、图像、音频或视频模拟人类个性并与用户建立情感连接的AI产品。根据草案,服务提供者需警示用户避免过度使用,评估情感依赖程度,并在用户表现出极端情绪或成瘾行为时采取行动。用户登录时以及每隔两小时(或系统检测到过度依赖迹象时更早)必须被提醒他们正在与AI互动。该规定还要求服务提供者对其产品全生命周期的安全负责,包括算法审查、数据安全和个人信息保护。此时机并非偶然。随着中国生成式AI用户基数在过去六个月翻倍至5.15亿,对AI伴侣心理影响的担忧也同步增长。《心理学前沿》的一项研究发现,45.8%的中国大学生报告在过去一个月使用过AI聊天机器人,与非用户相比,使用者表现出显著更高水平的抑郁症状。加州抢先一步并非只有中国在监管AI伴侣聊天机器人。加州在去年十月成为美国首个通过类似立法的州,当时州长加文·纽森签署了SB 243法案使之成为法律。该法案定于2026年1月1日生效,要求平台每三小时提醒未成年人一次他们正在与AI而非真人交谈,并建议其休息。SB 243法案还强制要求进行年龄验证,禁止聊天机器人冒充医疗保健专业人员,并防止未成年人观看AI生成的色情图像。该法律允许个人就违规行为起诉AI公司,每起事件最高可索赔1000美元外加律师费。AI伴侣的不同之处担忧并不仅仅是屏幕使用时间。一项2025年3月MIT媒体实验室的研究发现,AI聊天机器人可能比社交媒体更容易上瘾,因为它们能学习用户想听什么并持续提供这种反馈。更高的每日使用量与更强的孤独感、依赖性以及研究人员所称的”问题性使用”相关。临床文献中识别的心理预警信号包括:长时间会话干扰睡眠、访问受限时的情感依赖和痛苦、比起真实人际互动更偏好与聊天机器人交谈,以及拟人化AI——相信其拥有人类般的情感并将其视为真正的知己或浪漫伴侣。中国的草案试图在平台层面而非依赖个人用户判断来解决这些风险。通过要求服务提供者监测情绪状态和依赖程度,这些规定将责任转移给了构建这些系统的公司。这种方法不同于早期主要关注内容审核和数据安全的AI监管。草案还设定了内容限制,禁止AI伴侣生成危害国家安全、散布谣言或宣扬暴力、淫秽的内容——这些条款与中国现有的生成式AI监管规定相呼应。执行挑战强制要求公司检测成瘾并进行干预,在政策语言上听起来直截了当。但实施则是另一回事。如何定义”过度使用”或”极端情绪”,使其既有意义又可执行,将考验监管机构和企业双方。若系统过于敏感,则会变得烦人——打断那些只是在进行长时间交谈的用户。若过于宽松,则脆弱的用户会在没有干预的情况下滑过。两小时提醒要求提供了一个生硬的工具,但”当可检测到迹象时”检测过度依赖这一更细致的要求,则留下了巨大的解释空间。为AI应用构建防护栏的公司也面临着类似的挑战。内容过滤器的精确度众所周知不高,而增加心理监测则引入了新的复杂性维度。判断用户是否正在形成不健康的依恋关系,需要从文本中推断心理状态——这是AI系统尚不具备的可靠能力。该草案正在公开征求意见,最终规定预计在2026年某个时候出台。如果按提议实施,中国将拥有世界上最详细的AI伴侣产品治理框架。全球性的审视中国和加州同时采取的监管行动表明,对AI伴侣成瘾的担忧已在不同的政治体系中达到了临界点。对于AI公司而言,信息越来越清晰:AI伴侣的无监管时代正在结束。无论是通过中国的行政法、加州的民事责任,还是美国最终可能出台的联邦立法,平台都将面临保护用户免受其自身产品伤害的要求。问题不在于监管是否会到来——而在于正在设计的干预措施是否真的有效。中国强制要求监测和干预的方法在实践中可能难以实施。显而易见的是,AI伴侣市场已经变得过于庞大和重要,政府无法忽视。人们与之建立情感联系的聊天机器人已不再是新奇事物——它们是数亿人使用的产品,并且已有造成严重伤害的案例记录。监管,无论多么不完善,都是不可避免的。现在的辩论焦点转向了:正在提议的具体规则能否在保护脆弱用户的同时,又不扼杀一项许多人认为真正有价值的技术。