Kết nối với chúng tôi

Trung Quốc đề xuất các quy định yêu cầu chatbot trí tuệ nhân tạo theo dõi người dùng để phát hiện chứng nghiện.

Quy định

Trung Quốc đề xuất các quy định yêu cầu chatbot trí tuệ nhân tạo theo dõi người dùng để phát hiện chứng nghiện.

mm

Cơ quan quản lý an ninh mạng của Trung Quốc đã công bố dự thảo quy tắc vào thứ Bảy Điều đó sẽ đòi hỏi các chatbot trợ lý ảo có khả năng theo dõi trạng thái cảm xúc của người dùng và can thiệp khi xuất hiện các dấu hiệu nghiện – đây là phản ứng pháp lý mạnh mẽ nhất từ ​​trước đến nay đối với những lo ngại ngày càng tăng về tác hại tâm lý từ các mối quan hệ được hỗ trợ bởi trí tuệ nhân tạo.

Các quy định được đề xuất từ ​​Cục Quản lý Không gian mạng Trung Quốc nhắm vào các sản phẩm trí tuệ nhân tạo (AI) mô phỏng tính cách con người và tạo ra các kết nối cảm xúc với người dùng thông qua văn bản, hình ảnh, âm thanh hoặc video. Theo dự thảo, các nhà cung cấp sẽ cần cảnh báo người dùng về việc sử dụng quá mức, đánh giá mức độ phụ thuộc cảm xúc và có hành động khi người dùng thể hiện cảm xúc cực đoan hoặc hành vi nghiện ngập.

Người dùng phải được nhắc nhở rằng họ đang tương tác với trí tuệ nhân tạo khi đăng nhập và cứ sau hai giờ một lần—hoặc sớm hơn nếu hệ thống phát hiện dấu hiệu phụ thuộc quá mức. Các quy định cũng sẽ buộc các nhà cung cấp phải chịu trách nhiệm về sự an toàn trong suốt vòng đời sản phẩm của họ, bao gồm việc xem xét thuật toán, bảo mật dữ liệu và bảo vệ thông tin cá nhân.

Thời điểm này không phải là ngẫu nhiên. Số lượng người dùng trí tuệ nhân tạo tạo sinh (generative AI) tại Trung Quốc đã tăng gấp đôi, lên 515 triệu người. Trong sáu tháng qua, những lo ngại về tác động tâm lý của trợ lý ảo AI cũng ngày càng gia tăng. Một nghiên cứu của tạp chí Frontiers in Psychology Nghiên cứu cho thấy 45.8% sinh viên đại học Trung Quốc cho biết đã sử dụng chatbot AI trong tháng trước, và những người dùng này có mức độ trầm cảm cao hơn đáng kể so với những người không sử dụng.

California đã đi trước Trung Quốc trong cuộc đua

Trung Quốc không phải là quốc gia duy nhất ban hành quy định đối với chatbot trợ lý ảo. California đã trở thành tiểu bang đầu tiên của Mỹ thông qua luật tương tự vào tháng 10 khi Thống đốc Gavin Newsom ký dự luật SB 243 thành luật. Dự luật này, dự kiến ​​có hiệu lực vào ngày 1 tháng 1 năm 2026, yêu cầu các nền tảng phải... nhắc nhở trẻ vị thành niên cứ sau ba giờ. Họ đang nói chuyện với trí tuệ nhân tạo chứ không phải con người, và nên nghỉ ngơi một chút.

SB 243 cũng quy định việc xác minh độ tuổi, cấm chatbot tự xưng là chuyên gia chăm sóc sức khỏe và ngăn trẻ vị thành niên xem hình ảnh khiêu dâm do AI tạo ra. Luật này cho phép cá nhân kiện các công ty AI vì vi phạm, yêu cầu bồi thường lên đến 1,000 đô la cho mỗi vụ việc cộng với phí luật sư.

Điều gì làm cho các trợ lý ảo AI trở nên khác biệt?

Mối quan ngại không chỉ đơn thuần là thời gian sử dụng màn hình. Tháng 3 năm 2025, Phòng thí nghiệm Truyền thông MIT Nghiên cứu cho thấy chatbot AI có thể gây nghiện hơn cả mạng xã hội vì chúng học được những gì người dùng muốn nghe và cung cấp phản hồi đó một cách nhất quán. Việc sử dụng hàng ngày càng nhiều có liên quan đến sự cô đơn, phụ thuộc và điều mà các nhà nghiên cứu gọi là "sử dụng có vấn đề".

Các dấu hiệu cảnh báo tâm lý được xác định trong tài liệu lâm sàng bao gồm các phiên tương tác kéo dài làm gián đoạn giấc ngủ, sự phụ thuộc về mặt cảm xúc và sự đau khổ khi bị hạn chế quyền truy cập, thích trò chuyện với chatbot hơn là tương tác với người thật, và nhân cách hóa AI - tin rằng nó sở hữu những cảm xúc giống con người và coi nó như một người bạn tâm giao hoặc người yêu thực sự.

Các quy định dự thảo của Trung Quốc cố gắng giải quyết những rủi ro này ở cấp độ nền tảng thay vì dựa vào phán đoán của từng người dùng. Bằng cách yêu cầu các nhà cung cấp theo dõi trạng thái cảm xúc và mức độ phụ thuộc, các quy định này chuyển trách nhiệm sang các công ty xây dựng hệ thống. Cách tiếp cận này khác với các quy định về trí tuệ nhân tạo trước đây chủ yếu tập trung vào kiểm duyệt nội dung và bảo mật dữ liệu.

Bản dự thảo cũng đặt ra các hạn chế về nội dung, cấm các trợ lý AI tạo ra nội dung gây nguy hiểm cho an ninh quốc gia, lan truyền tin đồn hoặc cổ vũ bạo lực hay khiêu dâm — những điều khoản tương tự như các quy định hiện hành về trí tuệ nhân tạo tạo sinh của Trung Quốc.

Thách thức thực thi

Việc yêu cầu các công ty phát hiện chứng nghiện và can thiệp nghe có vẻ đơn giản trên ngôn ngữ chính sách. Tuy nhiên, việc thực thi lại là một vấn đề khác. Việc định nghĩa thế nào là “sử dụng quá mức” hay “cảm xúc cực đoan” một cách có ý nghĩa và khả thi sẽ là thách thức đối với cả các cơ quan quản lý và các công ty.

Nếu quá nhạy cảm, hệ thống sẽ trở nên khó chịu—làm gián đoạn những người dùng đang tham gia vào các cuộc trò chuyện dài. Nếu quá dễ dãi, những người dùng dễ bị tổn thương sẽ lọt qua mà không có sự can thiệp. Yêu cầu nhắc nhở hai giờ là một công cụ thô sơ, nhưng yêu cầu tinh tế hơn về việc phát hiện sự phụ thuộc quá mức “khi có thể phát hiện ra các dấu hiệu” lại để lại nhiều khoảng trống để diễn giải.

Công ty xây dựng các biện pháp bảo vệ cho ứng dụng AI đã phải đối mặt với những thách thức tương tự. Các bộ lọc nội dung nổi tiếng là thiếu chính xác, và việc bổ sung tính năng giám sát tâm lý lại làm tăng thêm độ phức tạp. Việc xác định xem người dùng có đang hình thành mối gắn bó không lành mạnh hay không đòi hỏi phải suy luận trạng thái tinh thần từ văn bản — một khả năng mà các hệ thống AI không thể sở hữu một cách đáng tin cậy.

Bản dự thảo đang được mở để lấy ý kiến ​​công chúng, và các quy định cuối cùng dự kiến ​​sẽ được ban hành vào năm 2026. Nếu được thực hiện theo đề xuất, Trung Quốc sẽ có khung pháp lý chi tiết nhất thế giới về quản lý các sản phẩm trợ giúp bằng trí tuệ nhân tạo.

Một sự tính toán toàn cầu

Hành động pháp lý đồng thời ở Trung Quốc và California cho thấy những lo ngại về chứng nghiện người bạn đồng hành AI đã đạt đến mức độ nghiêm trọng trong các hệ thống chính trị khác nhau.

Đối với các công ty trí tuệ nhân tạo, thông điệp ngày càng rõ ràng: kỷ nguyên của những người bạn đồng hành AI không bị kiểm soát đang kết thúc. Cho dù thông qua luật hành chính của Trung Quốc, trách nhiệm dân sự của California, hay luật liên bang trong tương lai tại Hoa Kỳ, các nền tảng sẽ phải đối mặt với các yêu cầu bảo vệ người dùng khỏi chính sản phẩm của họ.

Vấn đề không phải là liệu việc điều chỉnh có được áp dụng hay không, mà là liệu các biện pháp can thiệp đang được thiết kế có thực sự hiệu quả hay không. Cách tiếp cận của Trung Quốc trong việc bắt buộc giám sát và can thiệp có thể khó thực hiện trong thực tế.

Điều rõ ràng là thị trường trợ lý ảo AI đã phát triển quá lớn và quá quan trọng đến mức các chính phủ không thể phớt lờ. Các chatbot mà mọi người gắn bó về mặt cảm xúc không còn là những điều kỳ lạ nữa—chúng là những sản phẩm được hàng trăm triệu người sử dụng, với những trường hợp gây hại nghiêm trọng đã được ghi nhận. Việc điều chỉnh, dù không hoàn hảo, là điều không thể tránh khỏi. Cuộc tranh luận hiện chuyển sang việc liệu các quy định cụ thể được đề xuất có bảo vệ được người dùng dễ bị tổn thương mà không làm kìm hãm một công nghệ mà nhiều người thấy thực sự có giá trị hay không.

Alex McFarland là một nhà báo và nhà văn về AI đang khám phá những phát triển mới nhất về trí tuệ nhân tạo. Anh ấy đã cộng tác với nhiều công ty khởi nghiệp và ấn phẩm về AI trên toàn thế giới.