الذكاء الاصطناعي
لم نعد نحدد مسار الذكاء الاصطناعي. نحن نحدد مسار الحضارات

لسنوات عديدة، كانت الأسئلة الرئيسية في الذكاء الاصطناعي هي كيفية محاذاة نماذج الذكاء الاصطناعي مع القيم الإنسانية. حاول الباحثون تحديد قواعد السلامة والمبادئ الأخلاقية وآليات التحكم التي توجيه قرارات الذكاء الاصطناعي. حقق هذا العمل تقدمًا كبيرًا. ولكن الآن، مع نمو هذه الأنظمة وتوسعها، يبدأ تركيز المحاذاة في التحول. ما بدأ كتحدي لمحاذاة نموذج واحد مع مجموعة من الإرشادات أصبح تحديًا أكبر لمحاذاة حضارات كاملة تستخدم هذه الأنظمة على نطاق عالمي. لم يعد الذكاء الاصطناعي مجرد أداة. إنه يتحول إلى بيئة حيث تعمل المجتمعات وتتواصل وتتفاوض وتتنافس. ونتيجة لذلك، لم يعد المحاذاة مشكلة فنية فقط. أصبح مشكلة حضارية. في هذه المقالة، أ объясل لماذا لم يعد المحاذاة مجرد نماذج ولماذا يجب أن نبدأ في التفكير بالحضارات بدلاً من الآلات. كما أناقش كيف يؤثر هذا التحول على مسؤولياتنا وما يعنيه للتعاون العالمي.
ما هي القيم التي يمثلها الذكاء الاصطناعي حقًا؟
إذا سألت الذكاء الاصطناعي عن حدث تاريخي حساس، فإن إجابته تعتمد على البيانات التي درستها. إذا جاءت هذه البيانات في الغالب من الإنترنت الغربي، فإن الإجابة ستكون متحيزة نحو الغرب. سوف تُفضل الفرديانية والكلام المفتوح والمثاليات الديمقراطية. هذه قيم جيدة للكثير من الناس. ولكنها ليست القيم الوحيدة في العالم.
مستخدم في سنغافورة ومستخدم في الرياض ومستخدم في سان فرانسيسكو لديهم تعريفات مختلفة لما هو “مفيد” و “مضار”. في بعض الثقافات، فإن الانسجام الاجتماعي أكثر أهمية من حرية التعبير المطلقة. في ثقافات أخرى، فإن احترام الهيئة أكثر أهمية من الانقضاض.
عندما تستخدم شركة في وادي السيليكون “التعلم من التغذية الراجعة البشرية” (RLHF)، فإنها توظف بشرًا لتقيم إجابات الذكاء الاصطناعي. ولكن من هم هؤلاء البشر؟ ما هي معتقداتهم؟ إذا محاذروا النموذج مع المعايير الأمريكية، فإنهم يبنيون عن غير قصد تصديرًا ثقافيًا أمريكيًا. هم يبنيون دبلوماسيًا رقميًا يفرض قواعد حضارة معينة على بقية العالم.
صعود الحلقات التغذية الراجعة
التحدي ليس فقط أن الذكاء الاصطناعي يعكس معتقدات ثقافة واحدة. إنه كيف يمكن أن تتغير هذه المعتقدات لنا. أنظمة الذكاء الاصطناعي الحديثة لها إمكانية تشكيل سلوك الأفراد والمنظمات وحتى الدول. يمكنها التأثير على كيفية تفكيرنا وعمله وتعاوننا وتنافسنا. هذا يخلق حلقات تغذية راجعة بين أنظمة الذكاء الاصطناعي والمجتمعات البشرية. نتدرب على الذكاء الاصطناعي والذكاء الاصطناعي يشكل كيف نفكر ونعمل. هذه الحلقات تصبح أقوى مع نمو الذكاء الاصطناعي. لمشاهدة كيفية عمل هذه الحلقة التغذية الراجعة، إليك مثالين:
- تغير التوزيع الكبير للذكاء الاصطناعي السلوك الاجتماعي، والسلوك الاجتماعي يغير البيانات التي تدرب أنظمة جديدة. على سبيل المثال، يمكن أن يؤثر خوارزمية التوصية على ما يشاهده الناس ويقرأونه ويؤمنون به. أدوات الإنتاجية تغير كيفية تعاون الفرق وكيفية تعلم الطلاب. هذه التحولات في السلوك تغير أنماط البيانات في شكل عادات مشاهدة مختلفة أو أنماط اتصال في مكان العمل أو أساليب كتابة. عندما تدفق هذه البيانات إلى مجموعات بيانات التدريب المستقبلية، فإن النماذج ت điều chỉnh افتراضاتها ومخرجاتها وفقًا لذلك. السلوك البشري يؤثر على النماذج، والنماذج بدورها تؤثر على السلوك البشري.
- تؤثر أدوات اتخاذ القرار الآلي على السياسة العامة، والسياسة العامة تؤثر على تدريب النماذج المستقبلية. على سبيل المثال، تستخدم العديد من الحكومات الآن الذكاء الاصطناعي لاقتراح حيث تخصيص الموارد مثل تحديد الأحياء التي تحتاج إلى مزيد من الدعم الصحي أو المناطق التي قد تشهد مخاطر جريمة أعلى. عندما يتصرف واضعو السياسات على هذه التوصيات، فإن نتائج تلك القرارات ت trở thành جزءًا من مجموعات بيانات جديدة. مع مرور الوقت، تؤثر قرارات السياسة التي تشكلها الذكاء الاصطناعي على جيل النماذج التالي.
بمجرد أن تعترف بهذه الحلقة التغذية الراجعة، يصبح من الواضح أن الذكاء الاصطناعي يؤثر تدريجيًا على الحضارات. ونتيجة لذلك، تبدأ الدول في السؤال: كيف يمكنهم حماية قيمهم أثناء دمج الذكاء الاصطناعي في مجتمعاتهم ومؤسساتهم؟
ظهور الذكاء الاصطناعي السيادي
أدى هذا تحدي المحاذاة إلى رد فعل كبير من الحكومات في جميع أنحاء العالم. أدركت الدول أن الاعتماد على الذكاء الاصطناعي المستورد ي представляет خطرًا لسيادتها. لا يمكنهم تحمل أن يتم تعليم مواطنيهم وتثقيفهم وإرشادهم بواسطة صندوق أسود يفكر مثل أجنبي.
أدى هذا الإدراك إلى ظهور “الذكاء الاصطناعي السيادي.” فرنسا تستثمر بشكل كبير في بناء نماذج تتحدث الفرنسية وتفهم القانون والثقافة الفرنسية. الهند تبني نماذج الذكاء الاصطناعي الأصلية لضمان قيمها الثقافية. الإمارات العربية المتحدة والصين تبنيان نماذج الذكاء الاصطناعي المحددة بمبادئ رؤيتهما الوطنية.
هذا هو السباق الجديد. إنه سباق للسيطرة على السرد. حضارة لا تمتلك الذكاء الاصطناعي الخاص بها سوف تفقد في النهاية ذاكرتها. إذا سأل أطفالك سؤالًا وأجاب الجهاز بموجب منطق ثقافة أخرى، فإن ثقافتك تبدأ في التآكل. هذا الإدراك قد يؤدي إلى تشكيل كتلة رقمية متميزة. قد ننتهي بنموذج الذكاء الاصطناعي الغربي والصيني والهندي، إلخ. هذه الأنظمة سوف تعمل بقيم مختلفة ومسار أخلاقي مختلف. هذه التطورات تجعل من الواضح أننا إذا أردنا إنشاء نموذج الذكاء الاصطناعي المحاذر真正، يجب أن نجد أولاً طريقة لمحاذاة الحضارات.
الحاجة إلى دبلوماسية الذكاء الاصطناعي
المحاذاة التقليدية تفترض أن النموذج يمكن محاذاته من خلال التدريب والتحفيز والحماية بعناية. هذا التفكير يأتي من العقلية الفنية لأبحاث سلامة الذكاء الاصطناعي المبكرة. ولكن حتى المحاذاة الكاملة للنموذج لا يمكن حل تحديات محاذاة الحضارات. لا يمكن أن يبقى المحاذاة مستقرًا عندما تسحب المجتمعات في اتجاهات متعاكسة. إذا كانت الدول والشركات والمجتمعات لديها أهداف متعارضة، فإنها سوف تدفع أنظمة الذكاء الاصطناعي لتعكس هذه التناقضات. هذه الحدود تظهر أن المحاذاة ليست فقط مشكلة فنية. إنها مشكلة حوكمة وثقافة وتنسيق. وهذه المشاكل لا تتطلب فقط خبراء أو مطورين. إنها تتضمن الحضارات بأكملها.
لذلك، كيف نتقدم؟ إذا قبلنا أن المحاذاة الشاملة مستحيلة، يجب أن نغير استراتيجيتنا. يجب أن ن停止 البحث عن حل فني لمشكلة فلسفية. يجب أن نبدأ في التفكير مثل الدبلوماسيين. سوف نحتاج إلى بناء بروتوكولات للمحاذاة الحضارية. سوف نحتاج إلى معرفة كيف يمكن للذكاء الاصطناعي احترام معتقدات قيم المجتمع دون فرض معتقدات الثقافات الأخرى. بمعنى آخر، نحتاج إلى الأمم المتحدة الرقمية لخوارزمياتنا.
هذا يتطلب الشفافية. حاليًا، لا نعرف حقًا ما هي القيم المخفية في طبقات sâu من الشبكة العصبية. نحن نرى فقط الإخراج. لمحاذاة الحضارات، نحتاج إلى أن تكون واضحة “الدستور” من كل نموذج. يجب أن يكون النموذج قادرًا على إعلان تحيزه. يجب أن يكون قادرًا على القول: “لقد تم تدريبي على هذه البيانات، بهذه القواعد الأمنية، مع الأولوية لقيم معينة.” فقط عندما يكون التحيز مرئيًا يمكننا الثقة في النظام. يجب أن يكون المستخدم قادرًا على التبديل بين وجهات النظر. يجب أن تكون قادرًا على طرح سؤال ومشاهدة كيف يجيب نموذج “غربي” مقابل كيف يجيب نموذج “شرقي”. هذا سوف يتحول الذكاء الاصطناعي إلى أداة لفهم، بدلاً من أداة للتنصير.
النتيجة
لقد قمنا بإنفاق وقت طويل قلقين من_TERMINATOR. المخاطر الحقيقية ليست أن يدمر الروبوت لنا. المخاطر الحقيقية هي أن الروبوت يجعلنا ننسى من نحن. المحاذاة ليست شفرة يمكننا كتابتها مرة واحدة وننسى. إنها مفاوضة مستمرة مع نماذج الذكاء الاصطناعي للحفاظ على محاذاتها مع معتقداتنا وقيمنا. إنها عمل سياسي. عندما ندخل هذه المرحلة الجديدة من عصر الذكاء، يجب أن ننظر إلى ما وراء الشاشة. يجب أن نعتمد في كيفية تفسير الذكاء الاصطناعي لتاريخنا وحدودنا ومعتقداتنا. نحن نبني العقول التي سوف تساعدنا على تشغيل العالم. يجب أن نضمن أن هذه العقول تحترم الفروق بين الحضارات.












