الذكاء الاصطناعي
لم نعد نوازن بين الذكاء الاصطناعي، بل نوازن بين الحضارات.

لسنوات عديدة، كان السؤال الرئيسي في مجال الذكاء الاصطناعي هو كيفية مواءمة نماذج الذكاء الاصطناعي مع القيم الإنسانية. حاول الباحثون تحديد قواعد السلامة والمبادئ الأخلاقية وآليات التحكم التي توجه قرارات الذكاء الاصطناعي. وقد حقق هذا العمل تقدمًا كبيرًا. ولكن الآن، ومع تزايد قدرة أنظمة الذكاء الاصطناعي وانتشارها، بدأ تركيز المواءمة يتحول. فما بدأ كتحدي لمواءمة نموذج واحد لمجموعة واحدة من التعليمات أصبح الآن تحديًا أكبر بكثير يتمثل في مواءمة حضارات بأكملها تستخدم هذه الأنظمة على نطاق عالمي. لم يعد الذكاء الاصطناعي مجرد أداة. إنه يتطور إلى بيئة تعمل فيها المجتمعات وتتواصل وتتفاوض وتتنافس. ونتيجة لذلك، لم تعد المواءمة مشكلة تقنية. لقد أصبحت مشكلة حضارية. في هذه المقالة، أشرح لماذا لم تعد المواءمة مجرد نماذج ولماذا يجب أن نبدأ في التفكير من منظور الحضارات بدلاً من الآلات. كما أناقش كيف يؤثر هذا التحول على مسؤولياتنا وماذا يعني للتعاون العالمي.
ما هي القيم التي تمثلها الذكاء الاصطناعي حقًا؟
إذا سألتَ ذكاءً اصطناعيًا عن حدث تاريخي حساس، فإن إجابته تعتمد على البيانات التي درسها. إذا كانت هذه البيانات تأتي في الغالب من الإنترنت الغربي، فسيكون الجواب متحيزًا غربيًا. سيُعطي الأولوية للفردية وحرية التعبير والمُثُل الديمقراطية. هذه قيم جيدة للكثيرين، لكنها ليست القيم الوحيدة في العالم.
لدى مستخدم في سنغافورة، ومستخدم في الرياض، ومستخدم في سان فرانسيسكو تعريفات مختلفة لما هو "مفيد" وما هو "ضار". في بعض الثقافات، يكون التناغم الاجتماعي أهم من حرية التعبير المطلقة. وفي ثقافات أخرى، يكون احترام التسلسل الهرمي أهم من الاضطراب.
عندما تستخدم إحدى شركات وادي السيليكون "التعزيز التعلم من ردود الفعل البشرية(RLHF)، يوظفون بشرًا لتقييم إجابات الذكاء الاصطناعي. لكن من هم هؤلاء البشر؟ ما هي معتقداتهم؟ إذا وائموا النموذج مع المعايير الأمريكية، فإنهم يُنشئون عن غير قصد نموذجًا ثقافيًا أمريكيًا مُصدَّرًا. إنهم يُنشئون دبلوماسيًا رقميًا يُطبِّق قواعد حضارة مُحددة على بقية العالم.
صعود حلقات التغذية الراجعة
لا يقتصر التحدي على أن الذكاء الاصطناعي يعكس معتقدات ثقافة واحدة، بل يكمن في كيفية تأثير هذه المعتقدات علينا. تتمتع أنظمة الذكاء الاصطناعي الحديثة بالقدرة على تشكيل سلوك الأفراد والمؤسسات، بل وحتى الدول. فهي قادرة على التأثير على طريقة تفكيرنا وعملنا وثقتنا وتنافسنا. وهذا يُنشئ حلقات تغذية راجعة بين أنظمة الذكاء الاصطناعي والمجتمعات البشرية؛ فنحن ندرب الذكاء الاصطناعي، وهو بدوره يُشكل طريقة تفكيرنا وتصرفنا. وتزداد هذه الحلقات قوةً مع ازدياد انتشار الذكاء الاصطناعي. ولتوضيح آلية عمل هذه الحلقة، إليكم مثالان:
- يُغيّر نشر الذكاء الاصطناعي على نطاق واسع السلوك الاجتماعي، ويغيّر هذا السلوك البيانات التي تُدرّب الأنظمة الجديدة. على سبيل المثال، يُمكن لخوارزمية التوصية أن تُشكّل ما يشاهده الناس ويقرأونه ويؤمنون به. تُعيد أدوات الإنتاجية تشكيل كيفية تعاون الفرق وكيفية تعلّم الطلاب. تُغيّر هذه التحولات في السلوك أنماط البيانات من خلال اختلاف عادات المشاهدة، وأنماط التواصل في مكان العمل، أو أساليب الكتابة. عندما تتدفق هذه البيانات إلى مجموعات بيانات التدريب المستقبلية، تُعدّل النماذج افتراضاتها ومخرجاتها وفقًا لذلك. يُشكّل السلوك البشري النماذج، وتُشكّل النماذج بدورها السلوك البشري.
- تؤثر أدوات اتخاذ القرار الآلية على السياسات العامة، كما تؤثر هذه السياسات على تدريب النماذج المستقبلية. على سبيل المثال، تستخدم العديد من الحكومات الآن الذكاء الاصطناعي لاقتراح تخصيص الموارد، مثل تحديد الأحياء التي تحتاج إلى مزيد من الدعم الصحي أو المناطق التي قد تشهد ارتفاعًا في مخاطر الجريمة. عندما يطبق صانعو السياسات هذه التوصيات، تُدرج نتائج هذه القرارات لاحقًا في مجموعات بيانات جديدة. بمرور الوقت، تُشكل قرارات السياسات التي يصوغها الذكاء الاصطناعي الجيل القادم من نماذج الذكاء الاصطناعي.
بمجرد إدراك هذه الحلقة المفرغة، يتضح أن الذكاء الاصطناعي يُشكّل الحضارات ويُنسّقها تدريجيًا. ونتيجةً لذلك، بدأت الدول تتساءل: كيف يُمكنها الحفاظ على قيمها مع دمج الذكاء الاصطناعي في مجتمعاتها ومؤسساتها؟
ظهور الذكاء الاصطناعي السيادي
أثار هذا التحدي المتعلق بالتوافق ردود فعل واسعة من الحكومات حول العالم. فقد أدركت الدول أن الاعتماد على الذكاء الاصطناعي المستورد يُشكل خطرًا على سيادتها. فلا يمكنها تحمّل تعليم مواطنيها وتزويدهم بالمعلومات والمشورة من قِبل نظامٍ مُظلمٍ يُفكّر كأجنبي.
وقد أدى هذا الإدراك إلى ظهور "الذكاء الاصطناعي السيادي"فرنسا هي" الاستثمار بذلت جهودًا كبيرة لبناء نماذج تتحدث الفرنسية وتفهم القانون والثقافة الفرنسية. الهند بناء نماذج ذكاء اصطناعي محلية لضمان قيمها الثقافية. تعمل الإمارات العربية المتحدة والصين على بناء نماذج ذكاء اصطناعي تتماشى مع رؤاهما الوطنية.
هذا هو سباق التسلح الجديد. إنه سباق للسيطرة على السرد. الحضارة التي لا تمتلك ذكاءً اصطناعيًا خاصًا بها ستفقد ذاكرتها في النهاية. إذا سأل أطفالك آلةً سؤالًا، وأجابت الآلة بمنطق ثقافة مختلفة، فإن ثقافتك تبدأ بالتآكل. ومع ذلك، قد يؤدي هذا الإدراك إلى تشكيل كتل رقمية متمايزة. قد ينتهي بنا الأمر بذكاء اصطناعي غربي، وصيني، وهندي، وهكذا دواليك. ستعمل هذه الأنظمة بحقائق مختلفة وبوصلات أخلاقية مختلفة. توضح هذه التطورات أنه إذا أردنا إنشاء نموذج ذكاء اصطناعي واحد ومتوافق تمامًا، فعلينا أولًا إيجاد طريقة لمواءمة الحضارات.
الحاجة إلى الذكاء الاصطناعي الدبلوماسي
يفترض المحاذاة التقليدية إمكانية محاذاة النموذج من خلال التدريب الدقيق والتحفيز ووضع حواجز أمان. ينبع هذا التفكير من العقلية التقنية لأبحاث سلامة الذكاء الاصطناعي المبكرة. ولكن حتى المحاذاة المثالية على مستوى النموذج لا يمكنها حل تحديات محاذاة الحضارات. لا يمكن أن تبقى المحاذاة مستقرة عندما تتجه المجتمعات في اتجاهات متعاكسة. إذا كانت للدول والشركات والمجتمعات أهداف متضاربة، فسوف تدفع أنظمة الذكاء الاصطناعي لتعكس هذه التضاربات. تُظهر هذه الحدود أن المحاذاة ليست مجرد مشكلة تقنية، بل هي مشكلة حوكمة وثقافة وتنسيق. وهذه المشاكل لا تتطلب خبراء أو مطورين فحسب، بل تشمل حضارات بأكملها.
إذن، كيف نمضي قدمًا؟ إذا سلمنا باستحالة التوافق العالمي، فعلينا تغيير استراتيجيتنا. علينا التوقف عن البحث عن حلول تقنية لمشكلة فلسفية. علينا أن نبدأ بالتفكير كدبلوماسيين. سنحتاج إلى بناء بروتوكولات "للتوافق الحضاري". علينا أن نكتشف كيف يمكن للذكاء الاصطناعي احترام معتقدات وقيم مجتمع ما دون فرض معتقدات ثقافات أخرى عليه. بعبارة أخرى، نحتاج إلى أمم متحدة رقمية لخوارزمياتنا.
يتطلب هذا شفافية. حاليًا، لا نعرف حقًا ما هي القيم المخفية داخل الطبقات العميقة للشبكة العصبية. لا نرى سوى المخرجات. لمواءمة الحضارات، يجب أن نكون واضحين بشأن "بنية" كل نموذج. يجب أن يكون النموذج قادرًا على إعلان تحيزه. يجب أن يكون قادرًا على القول: "أنا مُدرّب على هذه البيانات، وفقًا لقواعد السلامة هذه، مع إعطاء الأولوية لهذه القيم". فقط عندما يكون التحيز واضحًا، يمكننا الوثوق بالنظام. يجب أن يكون المستخدم قادرًا على التبديل بين وجهات النظر. يجب أن تكون قادرًا على طرح سؤال ومعرفة كيفية إجابة النموذج "الغربي" مقابل كيفية إجابة النموذج "الشرقي". هذا من شأنه أن يجعل الذكاء الاصطناعي أداة للفهم، بدلًا من أداة للتلقين.
الخط السفلي
لقد أمضينا وقتًا طويلًا في القلق بشأن "المدمر". الخطر الحقيقي ليس أن يُدمرنا روبوت، بل أن يُنسينا روبوت هويتنا. التوافق ليس شفرةً نكتبها مرةً وننساها، بل هو تفاوضٌ مستمرٌ مع نماذج الذكاء الاصطناعي لضمان توافقها مع معتقداتنا وقيمنا. إنه فعلٌ سياسي. مع انتقالنا إلى هذه المرحلة الجديدة من عصر الذكاء، يجب أن ننظر إلى ما وراء الشاشة. يجب أن نفكر في كيفية تفسير الذكاء الاصطناعي لتاريخنا وحدودنا ومعتقداتنا. نحن نبني العقول التي ستساعدنا على إدارة العالم. يجب أن نتأكد من أن هذه العقول تحترم الاختلافات بين الحضارات.












