الذكاء الاصطناعي
كيف يساهم الذكاء الاصطناعي في تشكيل مستقبل الحوار الديمقراطي
في عالمنا اليوم المُستقطب سياسيًا، يزداد صعوبة إيجاد أرضية مشتركة بشأن القضايا الاجتماعية والسياسية المُعقدة. ومع تزايد تنوع المجتمعات، اتسعت الخلافات حول قضايا جوهرية كتغير المناخ والهجرة والسياسات الاقتصادية. وغالبًا ما يتطلب جمع الناس للتوصل إلى توافق في الآراء بشأن القضايا المُعقدة وقتًا وموارد وفرصًا متكافئة تُمكّن من سماع جميع الآراء.
لقد جلبت التطورات الأخيرة في مجال الذكاء الاصطناعي إمكانيات جديدة للتكنولوجيا للمساعدة في تيسير الحوارات المعقدة حول المواضيع الخلافية. على سبيل المثال، أصبحت نماذج معالجة اللغة الكبيرة المدعومة بالذكاء الاصطناعي متطورة بما يكفي لتفسير اللغة المعقدة وتمييز الاختلافات في المشاعر والوجهات النظر. وعلاوة على ذلك، يتم تصميم أنظمة الذكاء الاصطناعي بميزات مثل تحليل المشاعر في الوقت الحقيقي، واكتشاف التحيز، والتغذية الراجعة التكيفية. هذه القدرات تجعلها مناسبة بشكل خاص للمساعدة في تيسير المناقشات العادلة والمتوازنة.
وقد لفتت هذه الإمكانية انتباه باحثي Google DeepMind لاستكشاف وعد الذكاء الاصطناعي في تسهيل الحوار المدني. مستوحى من الأفكار الفيلسوف يورجن هابرماسلقد خلقوا "آلة هابرماس"(HM)، أداة لدعم الحوار المدني ومساعدة المجموعات على اكتشاف القيم المشتركة. تتناول المقالة السؤال التالي: هل يمكن للذكاء الاصطناعي أن يساعدنا حقًا في إيجاد أرضية مشتركة؟ كما تبحث في كيفية تسهيل آلة هابرماس (HM) للمداولة الديمقراطية.
آلة هابرماس
إن آلة هابرماس هي أداة ذكاء اصطناعي مصممة لتحليل الآراء الفردية وإنشاء بيان جماعي موحد. تعمل الآلة مثل "وساطة الكتلة". يبدأ المشاركون بمشاركة أفكارهم. ثم يقوم الذكاء الاصطناعي بدمجها في مسودة بيان. بعد ذلك، يراجع المشاركون هذه المسودة ويقدمون انتقاداتهم. يستخدم الذكاء الاصطناعي مدخلاته لإنشاء بيان منقح يسعى إلى الحصول على اتفاق أوسع، مع التقاط وجهات نظر الأغلبية وانتقادات الأقلية.
تستخدم هذه الآلة نموذجين متخصصين من نماذج التعلم العميق لهذه المهمة. النموذج الأول هو نموذج توليدي ينشئ عبارات تعكس وجهات نظر مختلفة للمجموعة. النموذج الثاني هو نموذج مكافأة شخصي يقيم هذه العبارات بناءً على مدى احتمالية موافقة كل مشارك عليها. يتم تحسين النموذج التوليدي باستخدام الضبط الدقيق الخاضع للإشراف، بينما يتم تحسين نموذج المكافأة بشكل متكرر بناءً على إشارات المكافأة.
تم اختبار الآلة مع أكثر من 5,000 مشارك من جميع أنحاء المملكة المتحدة. انضم البعض من خلال منصة التمويل الجماعي، بينما تم تجنيد الآخرين من قبل مؤسسة Sortition Foundation، وهي مؤسسة غير ربحية تنظم جمعية المواطنين. تم تقسيم المشاركين إلى مجموعات، وتم الاختبار على مرحلتين. أولاً، قامت الآلة بتلخيص الآراء الجماعية. ثم، قامت بالتوسط بين المجموعات للمساعدة في تحديد أرضية مشتركة.
وعد الذكاء الاصطناعي في الكشف عن أرضية مشتركة للحوار الديمقراطي
تُسلّط الدراسة الضوء على قدرة الذكاء الاصطناعي على إيجاد أرضية مشتركة في الحوار الديمقراطي. ومن النتائج الرئيسية أن المناقشات التي يُتيحها الذكاء الاصطناعي دفعت المشاركين إلى تبني وجهات نظر مشتركة. فعلى عكس المناقشات غير المُتوسطة، التي غالبًا ما كانت تُعزّز المعتقدات القائمة، ساعد الذكاء الاصطناعي المشاركين على إعادة النظر في مواقفهم، وقرّبهم من حل وسط. وتُظهر هذه القدرة على تشجيع التوافق أن الذكاء الاصطناعي يُمكن أن يكون أداة قيّمة للتعامل مع القضايا المعقدة والمُثيرة للانقسام.
كشفت الدراسة أيضًا أن كلاً من المشاركين والقضاة المستقلين قيّموا التصريحات الصادرة عن الذكاء الاصطناعي بشكل إيجابي أكثر من تلك الصادرة عن وسطاء بشريين. ووجدوا أن تصريحات الذكاء الاصطناعي كانت أكثر دقةً وإثراءً وعدلاً. والأهم من ذلك، أن الذكاء الاصطناعي لم يكتفِ بتضخيم آراء الأغلبية، بل أعطى وزنًا لآراء الأقلية. ساعدت هذه الميزة في منع "استبداد الأغلبية" وضمان سماع الأصوات المعارضة. يُعدّ إدراج هذه الآراء المعارضة أمرًا بالغ الأهمية، لا سيما في المناقشات الحساسة، إذ يُسهم التمثيل العادل في منع سوء الفهم وتشجيع المناقشات المتوازنة.
التطبيقات الواقعية للذكاء الاصطناعي في الديمقراطية التداولية
إن لتأثيرات المداولات التي يعتمدها الذكاء الاصطناعي أهمية بالغة في سيناريوهات العالم الحقيقي. على سبيل المثال، يُمكن للذكاء الاصطناعي تعزيز مناقشات السياسات، وحل النزاعات، ومفاوضات العقود، ومجالس المواطنين. إن قدرته على تعزيز الحوار المتوازن تجعله أداة قيّمة للحكومات والمنظمات والمجتمعات التي تسعى إلى معالجة قضايا معقدة تشمل أصحاب مصلحة متنوعين.
لاختبار فعالية النموذج في بيئة عملية، نظّم الباحثون تجمعًا افتراضيًا للمواطنين مع عينة تمثيلية من سكان المملكة المتحدة. ركّز هذا التجمع على مواضيع خلافية مثل سياسة الهجرة والعمل المناخي. بعد مناقشات بوساطة الذكاء الاصطناعي، أظهر المشاركون تحولًا ملحوظًا نحو التوافق، دون أي تأثير لتحيز الذكاء الاصطناعي على آرائهم. تُبرز هذه النتائج كيف يُمكن لوساطة الذكاء الاصطناعي أن تُوجّه عملية صنع القرار الجماعي بشأن القضايا الاجتماعية الحرجة مع الحدّ من التحيز.
القيود والاعتبارات الأخلاقية
في حين أن وساطة الذكاء الاصطناعي تظهر وعدًا كبيرًا، إلا أنها حققت نجاحًا ملحوظًا القيودعلى سبيل المثال، يفتقر نموذج الذكاء الاصطناعي المستخدم في هذه الدراسة إلى قدرات التحقق من الحقائق، مما يعني أنه يعتمد بشكل كبير على جودة المدخلات من المشاركين. وعلاوة على ذلك، تتطلب المداولة بمساعدة الذكاء الاصطناعي تصميمًا دقيقًا لتجنب الخطاب الضار أو غير المنتج. وهناك اعتبار مهم آخر وهو الدور الأخلاقي للذكاء الاصطناعي في العمليات الديمقراطية. قد يكون بعض الأفراد حذرين من استخدام الذكاء الاصطناعي في المناقشات السياسية، خوفًا من أن تؤثر الخوارزميات بشكل غير مقصود على النتائج. لذلك، فإن الرقابة المستمرة والإطار الأخلاقي الواضح ضروريان لضمان استخدام الذكاء الاصطناعي بطرق تحترم القيم الديمقراطية.
الخط السفلي
أكد الباحثون في شركة جوجل ديب مايند أن الذكاء الاصطناعي لديه القدرة على تحويل الحوار الديمقراطي. ويقترحون أن أدوات الذكاء الاصطناعي، مثل آلة هابرماس، يمكن أن تساعد الأفراد في إيجاد أرضية مشتركة بشأن القضايا المعقدة. وفي حين يمكن للذكاء الاصطناعي أن يجعل المحادثات أكثر سهولة وشمولاً، فمن الأهمية بمكان استخدامه بشكل مسؤول لحماية القيم الديمقراطية.
وإذا تم تطوير الذكاء الاصطناعي بعناية، فإنه قد يلعب دوراً حاسماً في تيسير الفهم الجماعي. كما يمكنه المساعدة في معالجة القضايا الاجتماعية العاجلة من خلال إيجاد أرضية مشتركة بين وجهات نظر مختلفة. ومع تقدم تكنولوجيا الذكاء الاصطناعي، قد تصبح نماذج مثل آلة هابرماس حيوية للتغلب على تحديات الديمقراطية الحديثة، وتبسيط وتوسيع عمليات المداولة لمجموعات أكثر شمولاً وتنوعاً.






