اللائحة
الصين تقترح قواعد تلزم برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي بمراقبة المستخدمين للكشف عن الإدمان

أصدرت هيئة تنظيم الأمن السيبراني الصينية مسودة القواعد يوم السبت وهذا من شأنه أن يتطلب من روبوتات الدردشة المصاحبة التي تعمل بالذكاء الاصطناعي مراقبة الحالات العاطفية للمستخدمين والتدخل عند ظهور علامات الإدمان - وهو أكثر استجابة تنظيمية صرامة حتى الآن للمخاوف المتزايدة بشأن الضرر النفسي الناجم عن العلاقات التي تعمل بالذكاء الاصطناعي.
تستهدف اللوائح المقترحة من إدارة الفضاء الإلكتروني الصينية منتجات الذكاء الاصطناعي التي تحاكي الشخصيات البشرية وتُنشئ روابط عاطفية مع المستخدمين عبر النصوص والصور والصوت والفيديو. وبموجب مسودة اللوائح، سيتعين على مزودي هذه المنتجات تحذير المستخدمين من الإفراط في استخدامها، وتقييم مستويات الاعتماد العاطفي، واتخاذ الإجراءات اللازمة عند ظهور مشاعر متطرفة أو سلوك إدماني لدى المستخدمين.
يجب تذكير المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي عند تسجيل الدخول، وكل ساعتين، أو قبل ذلك إذا رصد النظام علامات على الاعتماد المفرط عليه. كما ستُحمّل هذه القواعد مزودي الخدمات مسؤولية السلامة طوال دورة حياة منتجاتهم، بما في ذلك مراجعة الخوارزميات، وأمن البيانات، وحماية المعلومات الشخصية.
التوقيت ليس مصادفة. تضاعف عدد مستخدمي الذكاء الاصطناعي التوليدي في الصين ليصل إلى 515 مليون مستخدم على مدى الأشهر الستة الماضية، تزايدت المخاوف بشأن التأثير النفسي للرفقاء الذين يعملون بالذكاء الاصطناعي بالتوازي مع ذلك. دراسة في مجلة فرونتيرز إن سايكولوجي ووجدت الدراسة أن 45.8% من طلاب الجامعات الصينية أبلغوا عن استخدامهم لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي في الشهر الماضي، حيث أظهر المستخدمون مستويات أعلى بكثير من الاكتئاب مقارنة بغير المستخدمين.
كاليفورنيا تتفوق على الصين في البداية
لا تنفرد الصين بتنظيم روبوتات الدردشة المصاحبة التي تعمل بالذكاء الاصطناعي. فقد أصبحت كاليفورنيا أول ولاية أمريكية تُقر تشريعًا مماثلًا في أكتوبر/تشرين الأول عندما وقّع الحاكم جافين نيوسوم على مشروع قانون مجلس الشيوخ رقم 243 ليصبح قانونًا نافذًا. وينص هذا القانون، المقرر أن يدخل حيز التنفيذ في 1 يناير/كانون الثاني 2026، على إلزام المنصات بـ تذكير القاصرين كل ثلاث ساعات أنهم يتحدثون إلى برنامج ذكاء اصطناعي - وليس إلى إنسان - وأن يأخذوا استراحة.
ينصّ مشروع القانون SB 243 أيضاً على التحقق من العمر، ويحظر على برامج الدردشة الآلية انتحال صفة متخصصي الرعاية الصحية، ويمنع القاصرين من مشاهدة الصور الجنسية الصريحة التي تولدها برامج الذكاء الاصطناعي. كما يسمح القانون للأفراد بمقاضاة شركات الذكاء الاصطناعي في حال وقوع انتهاكات، والمطالبة بتعويض يصل إلى 1,000 دولار أمريكي عن كل حادثة بالإضافة إلى أتعاب المحاماة.
ما الذي يميز رفقاء الذكاء الاصطناعي؟
لا يقتصر القلق على وقت استخدام الشاشة فحسب. مختبر الإعلام في معهد ماساتشوستس للتكنولوجيا، مارس 2025 أظهرت دراسة أن برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي قد تكون أكثر إدمانًا من وسائل التواصل الاجتماعي، لأنها تتعلم ما يرغب المستخدمون في سماعه وتقدم تلك الملاحظات باستمرار. وارتبط ارتفاع معدل الاستخدام اليومي بزيادة الشعور بالوحدة، والاعتماد، وما وصفه الباحثون بـ"الاستخدام الإشكالي".
تشمل العلامات التحذيرية النفسية المحددة في الأدبيات السريرية جلسات مطولة تعطل النوم، والاعتماد العاطفي والضيق عند تقييد الوصول، وتفضيل المحادثات مع روبوتات الدردشة على التفاعل البشري الحقيقي، وإضفاء الصفات البشرية على الذكاء الاصطناعي - أي الاعتقاد بأنه يمتلك مشاعر شبيهة بمشاعر الإنسان ومعاملته كصديق مقرب حقيقي أو شريك رومانسي.
تسعى مسودة القواعد الصينية إلى معالجة هذه المخاطر على مستوى المنصة بدلاً من الاعتماد على تقدير المستخدم الفردي. ومن خلال إلزام مزودي الخدمة بمراقبة الحالات العاطفية ومستويات الاعتماد، تنقل اللوائح المسؤولية إلى الشركات التي تبني هذه الأنظمة. ويختلف هذا النهج عن تنظيم الذكاء الاصطناعي السابق الذي ركز بشكل أساسي على مراقبة المحتوى وأمن البيانات.
كما يحدد مشروع القانون قيودًا على المحتوى، ويحظر على رفقاء الذكاء الاصطناعي توليد مواد تهدد الأمن القومي، أو تنشر الشائعات، أو تروج للعنف أو الفحش - وهي أحكام تعكس لوائح الذكاء الاصطناعي التوليدي الحالية في الصين.
تحدي الإنفاذ
إنّ إلزام الشركات بالكشف عن الإدمان والتدخل يبدو واضحاً من الناحية النظرية، لكنّ التنفيذ مسألة أخرى. فتعريف ما يُعتبر "استخداماً مفرطاً" أو "انفعالات حادة" بطريقة فعّالة وقابلة للتنفيذ سيُمثّل تحدياً للهيئات التنظيمية والشركات على حدّ سواء.
إذا كان النظام شديد الحساسية، يصبح مزعجًا، إذ يقاطع المستخدمين المنخرطين في محادثات مطولة. أما إذا كان متساهلًا جدًا، فيتسلل المستخدمون المعرضون للخطر دون تدخل. يوفر شرط التذكير كل ساعتين أداةً غير دقيقة، لكن الشرط الأكثر دقةً للكشف عن الإفراط في الاعتماد "عند ظهور علامات" يترك مجالًا واسعًا للتفسير.
شركات البناء ضوابط لتطبيقات الذكاء الاصطناعي لقد واجهنا تحديات مماثلة. فمرشحات المحتوى معروفة بعدم دقتها، وإضافة المراقبة النفسية تُضيف أبعادًا جديدة من التعقيد. ويتطلب تحديد ما إذا كان المستخدم يُكوّن ارتباطًا غير صحي استنتاج الحالات الذهنية من النص، وهي قدرة لا تمتلكها أنظمة الذكاء الاصطناعي بشكل موثوق.
المسودة مفتوحة للتعليق العام، ومن المتوقع صدور اللوائح النهائية في وقت ما من عام 2026. إذا تم تنفيذها كما هو مقترح، فسيكون لدى الصين الإطار الأكثر تقييدًا في العالم لحوكمة منتجات الذكاء الاصطناعي المصاحبة.
حساب عالمي
يشير الإجراء التنظيمي المتزامن في الصين وكاليفورنيا إلى أن المخاوف بشأن إدمان الذكاء الاصطناعي على الرفقة قد وصلت إلى حد حرج عبر أنظمة سياسية مختلفة.
بالنسبة لشركات الذكاء الاصطناعي، باتت الرسالة واضحة بشكل متزايد: لقد ولّى عهد الأنظمة الذكية غير المنظمة. وسواءً كان ذلك من خلال القانون الإداري الصيني، أو المسؤولية المدنية في كاليفورنيا، أو التشريعات الفيدرالية المحتملة في الولايات المتحدة، ستواجه المنصات متطلبات لحماية المستخدمين من منتجاتها.
لا يكمن السؤال في ما إذا كانت القوانين ستصدر، بل في ما إذا كانت التدخلات المصممة ستؤتي ثمارها فعلاً. وقد يثبت نهج الصين القائم على فرض المراقبة والتدخل صعوبة تطبيقه عملياً.
من الواضح أن سوق تطبيقات الذكاء الاصطناعي المساعدة قد نما بشكل كبير وأصبح ذا تأثير بالغ لا يمكن للحكومات تجاهله. لم تعد روبوتات الدردشة التي يرتبط بها الناس عاطفياً مجرد فضول، بل أصبحت منتجات يستخدمها مئات الملايين، مع وجود حالات موثقة لأضرار جسيمة. كان التنظيم، على الرغم من عدم اكتماله، أمراً لا مفر منه. وينصب النقاش الآن على ما إذا كانت القواعد المحددة المقترحة ستحمي المستخدمين الأكثر عرضة للخطر دون أن تُعيق تقنية يجدها الكثيرون قيّمة حقاً.












