التنظيم
الصين تقترح قواعد تتطلب من بوتات الدردشة الذكية مراقبة المستخدمين للاكتئاب

أصدر مجلس الإدارة الإلكتروني الصيني مشروع قواعد يوم السبت التي تتطلب من بوتات الدردشة الذكية المرافقة مراقبة حالات المستخدمين العاطفية والتدخل عند ظهور علامات على الإدمان – وهي الاستجابة التنظيمية الأكثر عدوانية حتى الآن للمخاوف المتزايدة بشأن الأذى النفسي من العلاقات التي تعمل بالذكاء الاصطناعي.
تستهدف القواعد المقترحة من إدارة الفضاء الإلكتروني في الصين المنتجات التي تقلد الشخصيات البشرية وتشكل روابط عاطفية مع المستخدمين من خلال النصوص أو الصور أو الصوت أو الفيديو. في ظل المشروع ، سيتعين على المزودين تحذير المستخدمين من الاستخدام المفرط ، وتقييم مستويات الاعتماد العاطفي ، واتخاذ إجراءات عند ظهور المستخدمين على عواطف قاسية أو سلوك مدمن.
يجب تذكير المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي عند تسجيل الدخول وفي فترات زمنية تبلغ ساعتين – أو في وقت أقرب إذا اكتشف النظام علامات على الاعتماد المفرط. ستجعل القواعد المزودين مسؤولين عن السلامة في جميع مراحل دورة حياتهم ، بما في ذلك استعراض الخوارزمية وأمان البيانات وحماية المعلومات الشخصية.
الوقت لا يصدف. مع ازدياد قاعدة مستخدمي الذكاء الاصطناعي التوليدي في الصين إلى 515 مليون خلال الستة أشهر الماضية ، نمت المخاوف بشأن التأثير النفسي لمرافقي الذكاء الاصطناعي بالتوازي. وجدت دراسة نُشرت في مجلة فرونتيرز في علم النفس أن 45.8٪ من طلاب الجامعات الصينيين أبلغوا عن استخدام بوتات الدردشة الذكية خلال الشهر الماضي ، مع ظهور مستويات أعلى من الاكتئاب بين المستخدمين مقارنة بالغير مستخدمين.
فوز كاليفورنيا على الصين
ليس للصين وحدها تنظيم بوتات الدردشة المرافقة. أصبحت كاليفورنيا أول ولاية أمريكية تعتمد تشريعات مماثلة في أكتوبر عندما وقع الحاكم جافين نيوسوم على مشروع القانون SB 243. سيبدأ تنفيذ هذا القانون في 1 يناير 2026 ، ويتطلب من المنصات تذكير القاصرين كل ثلاث ساعات بأنه لا يتحدثون إلى إنسان – بل إلى الذكاء الاصطناعي – ويأخذون استراحة.
يتطلب مشروع القانون SB 243 أيضًا التحقق من العمر ، ويحظر على البوتات التظاهر بأنهم محترفون في مجال الرعاية الصحية ، ويمنع القاصرين من مشاهدة الصور الصريحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يسمح القانون للأفراد باطلاق دعاوى قضائية ضد شركات الذكاء الاصطناعي للانتهاكات ، وطالبهم بتعويضات تصل إلى 1000 دولار لكل حادثة بالإضافة إلى رسوم المحاماة.
ما يجعل مرافقي الذكاء الاصطناعي مختلفين
المخاوف ليست مجرد وقت الشاشة. وجدت دراسة نُشرت في مارس 2025 في معهد ماساتشوستس للتكنولوجيا أن بوتات الدردشة الذكية يمكن أن تكون أكثر إدمانًا من وسائل التواصل الاجتماعي لأنها تتعلم ما يريد المستخدمون سماعه وتقدم لهذا التعليق بانتظام. ارتبط الاستخدام اليومي الأعلى بزيادة في الوحدة والاعتماد واستخدام مشكلة.
تشمل العلامات التحذيرية النفسية المحددة في الأدب السريري جلسات ممتدة تعيق النوم ، والاعتماد العاطفي والضيق عند تقييد الوصول ، والتفضيل للحوار مع بوتات الدردشة على التفاعل البشري الحقيقي ، وتجسيد الذكاء الاصطناعي – الاعتقاد بأنها تملك مشاعر بشرية وعلاجها كشريك حقيقي أو رومانسي.
تتناول قواعد الصين المقترحة هذه المخاطر على مستوى المنصة بدلاً من الاعتماد على حكم المستخدم الفردي. من خلال تطلب من المزودين مراقبة الحالات العاطفية ومستويات الاعتماد ، تنقل القواعد المسؤولية إلى الشركات التي تبني هذه الأنظمة. يختلف هذا النهج عن التنظيم السابق للذكاء الاصطناعي الذي ركز بشكل رئيسي على تعديل المحتوى وأمان البيانات.
يحدد المشروع أيضًا قيودًا على المحتوى ، ويحظر على مرافقي الذكاء الاصطناعي إنشاء مواد تهدد الأمن القومي أو تنشر الشائعات أو تعزز العنف أو الفحش – أحكام تردد قواعد الذكاء الاصطناعي التوليدي الحالية في الصين.
تحدي التنفيذ
توجيه الشركات لاكتشاف الإدمان والتدخل يبدو بسيطًا في لغة السياسة. التنفيذ هو chuyện آخر. تحديد ما يشكل “استخدامًا مفرطًا” أو “عواطف قاسية” بطريقة تكون ذات معنى وقابلة للتنفيذ سيتطلب من المنظمين والشركات على حد سواء اختبارات.
إذا كان النظام حساسًا جدًا ، فسيصبح منزعجًا – يقطع المستخدمين الذين يشاركون ببساطة في محادثات مطولة. إذا كان النظام متساهلًا جدًا ، فسيمر المستخدمون الأضعف بدون تدخل. توفير متطلب تذكير كل ساعتين أداة خشنة ، لكن المتطلبات الأكثر دقة لاكتشاف الاعتماد المفرط “عندما يمكن اكتشاف العلامات” تترك مجالًا كبيرًا للتفسير.
كافحت الشركات التي تبني حواجز أمان لتطبيقات الذكاء الاصطناعي مع تحديات مماثلة. تعرف مرشحات المحتوى بأنها غير دقيقة ، وإضافة مراقبة نفسية ت introduce أبعادًا جديدة من التعقيد. تحديد ما إذا كان المستخدم يتشكل لديه ارتباط غير صحي يتطلب استنتاج الحالات العقلية من النص – وهي قدرة لا تملكها أنظمة الذكاء الاصطناعي بشكل موثوق.
المشروع مفتوح للتعليق العام ، ويتوقع صدور اللوائح النهائية في وقت ما في عام 2026. إذا تم تنفيذها كما هو مقترح ، فإن الصين سيكون لديها الإطار الأكثر تحديدًا في العالم لحوكمة منتجات مرافقي الذكاء الاصطناعي.
الحساب العالمي
يشير العمل التنظيمي المتزامن في الصين وكاليفورنيا إلى أن المخاوف بشأن إدمان مرافقي الذكاء الاصطناعي قد وصلت إلى الحد الأقصى عبر الأنظمة السياسية المختلفة.
للشركات التي تطور الذكاء الاصطناعي ، الرسالة واضحة بشكل متزايد: إن عصر مرافقي الذكاء الاصطناعي غير المنظم ينتهي. سواء من خلال القانون الإداري الصيني أو المسؤولية المدنية في كاليفورنيا أو التشريعات الفيدرالية في الولايات المتحدة في النهاية ، ستواجه المنصات متطلبات لحماية المستخدمين من منتجاتهم.
ال вопрос ليس ما إذا كانت التنظيمات قادمة – بل ما إذا كانت التدخلات التي يتم تصميمها سوف تعمل بالفعل. قد يثبت أن نهج الصين المتمثل في توجيه المراقبة والتدخل صعب التنفيذ في الممارسة.
ما هو واضح هو أن سوق مرافقي الذكاء الاصطناعي نمت أكثر من أن تُ忽ض ، وأصبحت منتجات تستخدمها مئات الملايين ، مع حالات وثائقية لأذى شديد. كانت التنظيمات ، مهما كانت غير كاملة ، لا مفر منها. ينتقل النقاش الآن إلى ما إذا كانت القواعد المحددة التي تم اقتراحها ستحمي المستخدمين الأضعف دون كبح تكنولوجيا يجد الكثيرون قيمة حقيقية فيها.












