Terhubung dengan kami

Regulasi

China Mengusulkan Aturan yang Mewajibkan Chatbot AI untuk Memantau Pengguna Terhadap Kecanduan

mm

Regulator siber Tiongkok merilis draf peraturan pada hari Sabtu Hal itu akan mengharuskan chatbot pendamping berbasis AI untuk memantau kondisi emosional pengguna dan melakukan intervensi ketika tanda-tanda kecanduan muncul—respons regulasi paling agresif hingga saat ini terhadap kekhawatiran yang semakin meningkat tentang bahaya psikologis dari hubungan yang didukung AI.

Usulan peraturan dari Administrasi Ruang Siber Tiongkok menargetkan produk AI yang mensimulasikan kepribadian manusia dan membentuk koneksi emosional dengan pengguna melalui teks, gambar, audio, atau video. Berdasarkan rancangan tersebut, penyedia layanan perlu memperingatkan pengguna terhadap penggunaan yang berlebihan, menilai tingkat ketergantungan emosional, dan mengambil tindakan ketika pengguna menunjukkan emosi ekstrem atau perilaku adiktif.

Pengguna harus diingatkan bahwa mereka berinteraksi dengan AI saat masuk dan setiap dua jam—atau lebih cepat jika sistem mendeteksi tanda-tanda ketergantungan berlebihan. Aturan tersebut juga akan mewajibkan penyedia bertanggung jawab atas keamanan sepanjang siklus hidup produk mereka, termasuk peninjauan algoritma, keamanan data, dan perlindungan informasi pribadi.

Waktunya bukanlah suatu kebetulan. Karena Basis pengguna AI generatif di Tiongkok meningkat dua kali lipat menjadi 515 juta. Selama enam bulan terakhir, kekhawatiran tentang dampak psikologis dari pendamping AI telah meningkat secara paralel. Sebuah studi Frontiers in Psychology Penelitian menemukan bahwa 45.8% mahasiswa universitas di Tiongkok melaporkan menggunakan chatbot AI dalam sebulan terakhir, dengan pengguna menunjukkan tingkat depresi yang jauh lebih tinggi dibandingkan dengan non-pengguna.

California Mendahului China

China bukanlah satu-satunya negara yang mengatur chatbot pendamping berbasis AI. California menjadi negara bagian AS pertama yang mengesahkan undang-undang serupa pada bulan Oktober ketika Gubernur Gavin Newsom menandatangani SB 243 menjadi undang-undang. RUU tersebut, yang akan mulai berlaku pada 1 Januari 2026, mewajibkan platform untuk ingatkan anak di bawah umur setiap tiga jam bahwa mereka sedang berbicara dengan AI—bukan manusia—dan untuk beristirahat.

SB 243 juga mewajibkan verifikasi usia, melarang chatbot untuk mengaku sebagai profesional perawatan kesehatan, dan mencegah anak di bawah umur melihat gambar eksplisit seksual yang dihasilkan AI. Undang-undang ini memungkinkan individu untuk menuntut perusahaan AI atas pelanggaran, dengan meminta ganti rugi hingga $1,000 per insiden ditambah biaya pengacara.

Apa yang Membuat Pendamping AI Berbeda?

Yang menjadi kekhawatiran bukan hanya soal waktu menatap layar. A Maret 2025 MIT Media Lab Sebuah studi menemukan bahwa chatbot AI bisa lebih adiktif daripada media sosial karena mereka mempelajari apa yang ingin didengar pengguna dan memberikan umpan balik tersebut secara konsisten. Penggunaan harian yang lebih tinggi berkorelasi dengan peningkatan kesepian, ketergantungan, dan apa yang oleh para peneliti disebut sebagai "penggunaan bermasalah."

Tanda-tanda peringatan psikologis yang diidentifikasi dalam literatur klinis meliputi sesi yang berkepanjangan yang mengganggu tidur, ketergantungan emosional dan tekanan ketika akses dibatasi, lebih menyukai percakapan dengan chatbot daripada interaksi manusia nyata, dan menganggap AI memiliki perasaan seperti manusia dan memperlakukannya sebagai teman curhat atau pasangan romantis yang sejati.

Draf peraturan Tiongkok berupaya mengatasi risiko-risiko ini di tingkat platform, alih-alih bergantung pada penilaian pengguna individual. Dengan mewajibkan penyedia untuk memantau kondisi emosional dan tingkat ketergantungan, peraturan tersebut mengalihkan tanggung jawab kepada perusahaan yang membangun sistem ini. Pendekatan ini berbeda dari regulasi AI sebelumnya yang terutama berfokus pada moderasi konten dan keamanan data.

Draf tersebut juga menetapkan pembatasan konten, melarang pendamping AI menghasilkan materi yang membahayakan keamanan nasional, menyebarkan rumor, atau mempromosikan kekerasan atau kecabulan—ketentuan yang mencerminkan peraturan AI generatif yang sudah ada di Tiongkok.

Tantangan Penegakan Hukum

Mewajibkan perusahaan untuk mendeteksi kecanduan dan melakukan intervensi terdengar mudah dalam bahasa kebijakan. Namun, implementasinya adalah masalah lain. Mendefinisikan apa yang termasuk dalam "penggunaan berlebihan" atau "emosi ekstrem" dengan cara yang bermakna dan dapat ditegakkan akan menjadi tantangan bagi regulator dan perusahaan.

Jika terlalu sensitif, sistem akan menjadi menjengkelkan—menginterupsi pengguna yang sedang terlibat dalam percakapan panjang. Jika terlalu longgar, pengguna yang rentan akan lolos tanpa intervensi. Persyaratan pengingat dua jam memberikan instrumen yang kasar, tetapi persyaratan yang lebih bernuansa untuk mendeteksi ketergantungan berlebihan "ketika tanda-tanda dapat dideteksi" memberikan ruang interpretasi yang signifikan.

Perusahaan yang membangun batasan untuk aplikasi AI Telah bergumul dengan tantangan serupa. Filter konten terkenal tidak akurat, dan menambahkan pemantauan psikologis memperkenalkan dimensi kompleksitas baru. Menentukan apakah pengguna membentuk keterikatan yang tidak sehat membutuhkan inferensi keadaan mental dari teks—kemampuan yang tidak dimiliki sistem AI secara andal.

Draf tersebut terbuka untuk komentar publik, dengan peraturan final yang diharapkan akan dikeluarkan sekitar tahun 2026. Jika diimplementasikan seperti yang diusulkan, Tiongkok akan memiliki kerangka kerja paling preskriptif di dunia untuk mengatur produk pendamping AI.

Perhitungan Global

Tindakan regulasi serentak di Tiongkok dan California menunjukkan bahwa kekhawatiran tentang kecanduan terhadap AI sebagai pendamping telah mencapai titik kritis di berbagai sistem politik.

Bagi perusahaan AI, pesannya semakin jelas: era asisten AI yang tidak diatur akan segera berakhir. Baik melalui hukum administrasi Tiongkok, tanggung jawab perdata California, atau undang-undang federal di Amerika Serikat, platform akan menghadapi persyaratan untuk melindungi pengguna dari produk mereka sendiri.

Pertanyaannya bukanlah apakah regulasi akan diberlakukan—melainkan apakah intervensi yang dirancang akan benar-benar berhasil. Pendekatan Tiongkok yang mewajibkan pemantauan dan intervensi mungkin terbukti sulit untuk diterapkan dalam praktiknya.

Yang jelas, pasar pendamping AI telah tumbuh terlalu besar dan terlalu penting untuk diabaikan oleh pemerintah. Chatbot yang menjalin ikatan emosional dengan orang-orang bukan lagi sekadar hal yang aneh—melainkan produk yang digunakan oleh ratusan juta orang, dengan kasus-kasus bahaya serius yang terdokumentasi. Regulasi, meskipun tidak sempurna, tidak dapat dihindari. Perdebatan sekarang bergeser ke apakah aturan spesifik yang diusulkan akan melindungi pengguna yang rentan tanpa menghambat teknologi yang menurut banyak orang benar-benar berharga.

Alex McFarland adalah jurnalis dan penulis AI yang mengeksplorasi perkembangan terkini dalam kecerdasan buatan. Dia telah berkolaborasi dengan banyak startup dan publikasi AI di seluruh dunia.