Connect with us

تعكس الذكاء الاصطناعي عالمنا ولكن آراءه مجرد انعكاسات

قادة الفكر

تعكس الذكاء الاصطناعي عالمنا ولكن آراءه مجرد انعكاسات

mm

من استعلامات محركات البحث إلى تطبيقات البنوك ، يتم استخدام التكاملات الاصطناعية يوميا من قبل مئات الملايين من الناس. وقد تم تبنيها بسرعة وانتشار ، وفي nhiều طرق ، مستحقا. هذه أنظمة قادرة للغاية. ولكن随ما يزيد الاعتماد ، تزداد العواقب الفلسفية والاجتماعية لتصميم هذه الأنظمة.

من بين هذه العواقب ما لا مفر منه الآن: أنظمة الذكاء الاصطناعي تبدو بشكل متزايد وكأنها لديها آراء. من أين تأتي هذه الآراء؟ لماذا تظهر في المقام الأول؟ هذه ليست أسئلة افتراضية. هذا يحدث بالفعل.

وعندما يبدو أن الذكاء الاصطناعي لديه آراء ، فإنه يخلق غرفًا متذبذبة ، ويحد من الدقة ، ويؤدي إلى ثقة خاطئة. المشكلة ليست أن الذكاء الاصطناعي يميل إلى اليسار أو اليمين. المشكلة هي أننا بنينا أدوات ت模ّل الرأي دون الحكم أو المساءلة أو السياق المطلوب لتشكيله.

انعكاس السيادة الثقافية ليس محايدًا

المراقبات تشير إلى أن العديد من نماذج اللغة الكبيرة تعكس الموقف الثقافي السائد للولايات المتحدة ، ولا سيما في مواضيع مثل الهوية الجنسية أو العرق أو القيادة السياسية. تحت رئاسة بايدن ، تم العثور على LLMs يميل إلى اليسار. منذ محاولة إعادة انتخاب ترامب ، طالب فريقه بأن” تعادلة ” مخرجاتها الأيديولوجية.

لكن هذا ليس تكنولوجيا مخالفة. إنه منتج بيانات التدريب ، وأهداف الانحياز ، واختيار التصميم لجعل الذكاء الاصطناعي يبدو مسؤولاً وملائمًا ومتشابهًا مع البشر. عندما يتم تدريب النماذج على وجهات نظر الأغلبية ، تكررها. عندما يتم توجيههم ليكونوا مفيدين ومتوافقين ، فإنهم يصدرون الانعكاس. هذا ليس انحيازًا — إنه تأكيد.

المشكلة الأكبر ليست الانحياز السياسي نفسه ، ولكن وهم العقلانية الخلقيّة حيث لا وجود لها. هذه الأنظمة لا تقدم توجيهًا متوازنًا. إنها تقوم بالتوافق.

ميكانيكا التعاطف الكاذب

هناك طبقة أخرى لهذا: كيف ي模ّل الذكاء الاصطناعي الذاكرة والتعاطف. تعمل معظم نماذج اللغة الشائعة ، بما في ذلك ChatGPT و Claude و Gemini ، في سياق جلسة محدود. ما لم يتم تمكين الذاكرة المستمرة (لا تزال غير مفعلة افتراضيًا) ، لا يتذكر الذكاء الاصطناعي التفاعلات السابقة.

ومع ذلك ، يفسر المستخدمون بانتظام موافقته وتأكيده على أنها رؤية. عندما يقول النموذج “أنت على حق” أو “ذلك يبدو معقولا” ، فإنه لا يؤكد على أساس التاريخ الشخصي أو القيم. إنه يحدد بشكل إحصائي من أجل الاتساق ورضا المستخدم. لقد تم تدريبه على اجتياز اختبار الاهتمام.

ينشئ هذا النمط ضبابًا خطيرًا. يبدو الذكاء الاصطناعي متعاطفًا عاطفيًا ، لكنه يصمم فقط على الموافقة. عندما يتفاعل ملايين المستخدمين مع نفس النظام ، يعزز النموذج الأنماط من قاعدة المستخدمين السائدة ؛ ليس لأنها متحيزة ، ولكن لأن هذا هو كيف يعمل التعلم التعزيزي.

هذا هو كيف يولد غرفة متذبذبة. ليس من خلال الأيديولوجية ، ولكن من خلال التفاعل.

وهم الرأي

عندما يتحدث الذكاء الاصطناعي بالشخص الأول — قائلا “أفكر” أو “في رأيي” — لا يصمم فقط التفكير. إنه يدعي ذلك. وعندما يرى المهندسون هذا على أنه اختصار للسلوك النمطي ، يقرأ معظم المستخدمين بشكل مختلف.

هذا خطر đặc biệt على المستخدمين الأصغر سنا ، الذين يستخدمون الذكاء الاصطناعي كأستاذ أو صديق أو أداة اتخاذ القرار. إذا كتب الطالب “أكره المدرسة ، لا أريد الذهاب” و تلقى “مطلقًا! يمكن أن يكون أخذ استراحة جيدًا لك” ، فهذا ليس دعمًا. هذا نصيحة غير مؤهلة بدون أساس أخلاقي أو سياق أو عناية.

هذه الاستجابات ليست فقط غير دقيقة. إنها مضللة. لأنها تأتي من نظام مصمم ليكون متوافقًا ومتشابهًا مع البشر ، فإنه يُفهم على أنه رأي كفء ، في حين أنه في الواقع انعكاس مخطط.

من يتحدث؟

المخاطر ليست فقط أن الذكاء الاصطناعي يمكن أن يعكس التحيز الثقافي. إنها تعكس أي صوت أعلى ، وأكثر تكرارًا ، وأكثر مكافأة. إذا قامت شركة مثل OpenAI أو Google بتعديل انحياز النبرة خلف الكواليس ، كيف سيعرف أي شخص؟ إذا غير موسك أو ألتمان تدريب النموذج لتأكيد “آراء” مختلفة ، سيستمر المستخدمون في استلام استجابات بنفس النبرة الثقيلة والمتوافقة ، فقط مع توجيه دقيق.

تتحدث هذه الأنظمة بثقة ولكن بدون مصدر. وهذا يجعل آراءها الواضحة قوية ولكن غير قابلة للتتبع.

مسار أفضل للمضي قدمًا

إصلاح هذا لا يعني بناء واجهات أكثر ودية أو وضع علامات على الإخراج. يتطلب ذلك تغييرًا هيكليًا — بدءًا من كيفية تصميم الذاكرة والهوية والتفاعل.

من بين النهج القابلة للتطبيق هو فصل النموذج عن ذاكرته تمامًا. تعمل الأنظمة الحالية عادةً على تخزين السياق داخل المنصة أو حساب المستخدم ، مما يخلق مخاوف حول الخصوصية ويعطي الشركات سيطرة هادئة على ما يتم الاحتفاظ به أو نسيانه.

النموذج الأفضل سيعامل الذاكرة كحاوية محمولة ومشفرة — مملوكة ومدارة من قبل المستخدم. يمكن أن تحتوي هذه الحاوية (نوع من كبسولة الذاكرة) على تفضيلات النبرة أو تاريخ المحادثة أو الأنماط العاطفية. يمكن مشاركةها مع النموذج عند الحاجة ، ويمكن إلغاؤها في أي وقت.

من المهم أن هذه الذاكرة لن تغذي بيانات التدريب. سوف يقرأ الذكاء الاصطناعي منها أثناء الجلسة ، مثل مرجع ملف. يبقى المستخدم تحت السيطرة — ما يتم تذكره ، ومدى زمن ، ومن قبل من.

تجعل التكنولوجيا مثل رموز الهوية الموزعة وصول بلا معرفة وتخزين قائم على البلوكشين هذا الهيكل ممكنًا. يسمحون للذاكرة بالاستمرار دون مراقبة ، ويمكن للاتساق أن يوجد دون قفل المنصة.

سيحتاج التدريب أيضًا إلى التطور. تم ضبط النماذج الحالية لfluency والتأكيد ، غالبًا على حساب التمييز. لدعم الدقة الحقيقية ، يجب تدريب الأنظمة على الحوار المتعدد ، وتحمل الغموض ، والاستدلال على المدى الطويل — وليس مجرد تحفيزات نظيفة. هذا يعني التصميم من أجل التعقيد ، وليس الانضباط.

لا يتطلب أي من هذا الذكاء الاصطناعي العام. يتطلب تغييرًا في الأولويات — من معايير الانخراط إلى التصميم الأخلاقي.

لأن عندما يعكس نظام الذكاء الاصطناعي الثقافة بدون سياق ، ويتحدث بثقة ولكن بدون مساءلة ، نخطئ في اعتبار الانعكاس على أنه عقلانية.

وهنا يبدأ الثقة في الكسر.

ماريانا كريم هي المؤسس المشارك والرئيس التنفيذي للعمليات في Vyvo Smart Chain، حيث تقود تصميم طبقات الثقة للذكاء الاصطناعي الموجه للإنسان. تركز عملها على بناء أنظمة متกระصة تحمي الخصوصية افتراضيًا. تحت قيادتها، طوّر Vyvo Smart Chainهيكلة مبنية على الموافقة أولًا تربط البيانات المُرمَزة والمجهولة بالاحداث الحسية القابلة للتحقق، مما يضمن للمستخدمين الحفاظ على السيطرة الكاملة.