قادة الفكر
كيف تبني الذكاء الاصطناعي القابل للتوضيح الثقة والمساءلة

لقد غامر الشركات بالفعل بالغوص في تبني الذكاء الاصطناعي، وتنافس على نشر محادثات روبوتية، ومولدات المحتوى، وأدوات دعم اتخاذ القرارات عبر عملياتها. وفقًا لمكينسي، يستخدم 78% من الشركات الذكاء الاصطناعي في وظيفة أعمال على الأقل.
من الطبيعي أن يكون هناك اندفاع لتنفيذ مثل هذا – الجميع يرى القيمة المحتملة. لكن في هذا الاندفاع، تتغاضى العديد من المنظمات عن حقيقة أن جميع التكنولوجيات القائمة على الشبكات العصبية، بما في ذلك كل نظام لغة كبير ومتوازي وجميع أنظمة الذكاء الاصطناعي التوليدي المستخدمة اليوم ومن المتوقع في المستقبل، تشترك في عيب كبير: أنها غير متوقعة وبالتالي لا يمكن السيطرة عليها.
كما تعلم البعض، يمكن أن يكون هناك عواقب حقيقية نتيجة لذلك. في أحد معارض بيع شفروليه الذي نشر روبوت محادثة على موقعه على الإنترنت، قنع زبون روبوت ChatGPT ببيع سيارة شفروليه تاهو مقابل 1 دولار فقط. كما حث الزبون نفس الروبوت على كتابة برنامج بايثون لمعادلات ديناميكية سائلة معقدة، وهو ما فعل. قام المعرض بتعطيل الروبوتات بعد أن أصبحت هذه الحوادث مشهورة.
في العام الماضي، خسرت إير كندا في محكمة المطالبات الصغيرة عندما زعمت أن روبوت المحادثة الخاص بها، الذي قدم لمسافر معلومات غير دقيقة حول خصم الحداد، “هو كيان قانوني منفصل مسؤول عن أفعاله”.
ينبع هذا عدم التوقع من الهيكل الأساسي للنماذج اللغوية الكبيرة. إنها كبيرة ومعقدة لدرجة أن من المستحيل فهم كيف تصل إلى إجابات محددة أو توقع ما ستنتج حتى تنتج ناتجًا. معظم المنظمات تستجيب لهذه مشكلة الموثوقية دون الاعتراف بها بالكامل.
الحل البديهي هو التحقق من نتائج الذكاء الاصطناعي يدوياً، وهو ما يعمل ولكن يحد بشدة من إمكانات التكنولوجيا. عندما يتم تخصيص الذكاء الاصطناعي ليكون مساعدًا شخصيًا – كتابة نص، وتسجيل دقائق الاجتماعات، و تلخيص الوثائق، والمساعدة في البرمجة – فإنه يوفر مكاسب إنتاجية متواضعة. ليس بما يكفي لتحويل الاقتصاد.
ستصل المنافع الحقيقية للذكاء الاصطناعي عندما ن停止 استخدامها لمساعدة الوظائف الحالية وبدلاً من ذلك إعادة تشكيل العمليات والأنظمة والشركات بالكامل لاستخدام الذكاء الاصطناعي دون تدخل بشري في كل خطوة. فكر في معالجة القروض: إذا قدمت بنك قروض مساعد ذكاء اصطناعي لتلخيص الطلبات، فقد يعملون بسرعة تتراوح بين 20-30%. لكن نشر الذكاء الاصطناعي لمعالجة عملية اتخاذ القرار بالكامل (مع الحفاظ على الحماية المناسبة) يمكن أن يقلل التكاليف بنسبة تزيد عن 90% ويقضي تقريبًا على كل وقت المعالجة. هذا هو الفرق بين التحسينات المتواضعة والتحول.
مسار التنفيذ الموثوق للذكاء الاصطناعي
استغلال إمكانات الذكاء الاصطناعي الكاملة دون الانحدار إلى عدم التوقع ي đòi مزيجًا متطورًا من النهج الفنية والتفكير الاستراتيجي. في حين تقدم الأساليب الحالية حلولًا جزئية، لكل منها قيود كبيرة.
تحاول بعض المنظمات التخفيف من مشاكل الموثوقية من خلال دفع النظام – توجيه سلوك الذكاء الاصطناعي بلطف في الاتجاهات المرغوبة بحيث يستجيب بنماط محددة لمدخلات معينة. أثبت باحثو Anthropic هشاشة هذا النهج من خلال تحديد “ميزة جسر البوابة الذهبية” في شبكة عصبية Claude، ومن خلال تعزيزها بشكل اصطناعي، تسببوا في أزمة هوية لشركة Claude. عندما سُئلت عن شكلها المادي، بدلاً من الاعتراف بأنها لا تمتلك أي شكل، زعمت Claude أنها جسر البوابة الذهبية نفسه. كشفت هذه التجربة عن مدى سهولة تغيير الوظيفة الأساسية للنموذج، وأنه كل دفع يمثل تسوية، قد يحسن جانبًا واحدًا من الأداء بينما يضر بآخَر.
نهج آخر هو السماح للذكاء الاصطناعي بمراقبة الذكاء الاصطناعي الآخر. في حين يمكن أن يلتقط هذا النهج المتداخل بعض الأخطاء، فإنه يُقدم تعقيدًا إضافيًا ولا يزال يفتقر إلى الموثوقية الشاملة. الحماية المبرمجة هي تداخل مباشر، مثل حظر الاستجابات التي تحتوي على كلمات أو أنماط معينة، مثل مكونات السابقة للأسلحة. في حين أن هذه الحماية فعالة ضد القضايا المعروفة، فإنها لا يمكن أن تتوقع النتائج المشكلة الجديدة التي تظهر من هذه الأنظمة المعقدة.
نهج أكثر فعالية هو بناء عمليات مركزة على الذكاء الاصطناعي يمكنها العمل بشكل مستقل، مع وضع الإشراف البشري بشكل استراتيجي لالتقاط مشاكل الموثوقية قبل أن تسبب مشاكل في العالم الحقيقي. لا تريد أن يُموّل الذكاء الاصطناعي مباشرةً أو يرفض طلبات القروض، لكن الذكاء الاصطناعي يمكنه إجراء تقييم أولي للمشغلين البشرين لمراجعته. يمكن أن يعمل هذا، لكنه يعتمد على اليقظة البشرية لالتقاط أخطاء الذكاء الاصطناعي ويتداخل مع مكاسب الكفاءة المحتملة من استخدام الذكاء الاصطناعي.
بناء المستقبل
تُشير هذه الحلول الجزئية إلى نهج أكثر شمولاً. المنظمات التي تفكر بشكل جوهري في كيفية إنجاز عملها بدلاً من مجرد تعزيز العمليات الحالية بمساعدة الذكاء الاصطناعي ستكتسب أكبر ميزة. لكن الذكاء الاصطناعي لا ينبغي أبدًا أن يكون الخطوة الأخيرة في عملية أو قرار ذي مخاطر عالية، فما هو أفضل مسار إلى الأمام؟
أولاً، يبني الذكاء الاصطناعي عملية قابلة للتكرار ستسلم نتائج متسقة وشفافة بانتظام. ثانيًا، يراجع البشر العملية للتأكد من فهمهم لكيفية عملها ومدخلاتها المناسبة. أخيرًا، تعمل العملية بشكل مستقل – بدون استخدام الذكاء الاصطناعي – مع مراجعة دورية للنتائج من قبل البشر.
فكر في صناعة التأمين. قد تكون النهج التقليدية هي إضافة مساعدين ذكاء اصطناعي لمساعدة معالجي المطالبات للعمل بكفاءة أكبر. نهج أكثر ثورة سوف يستخدم الذكاء الاصطناعي لتطوير أدوات جديدة – مثل رؤية الكمبيوتر التي تحلل صور التلف أو نماذج كشف الاحتيال المحسنة التي تحدد أنماطًا مشبوهة – ودمج هذه الأدوات في أنظمة آلية تحكمها قواعد واضحة ومفهومة. سوف يصمم ويراقب البشر هذه الأنظمة بدلاً من معالجة المطالبات الفردية.
يحافظ هذا النهج على الإشراف البشري في النقطة الحاسمة حيث يهم أكثر: تصميم وتصديق النظام نفسه. إنه يسمح بمكاسب كفاءة أسي ويقضي على خطر أن يؤدي عدم توقع الذكاء الاصطناعي إلى نتائج ضارة في الحالات الفردية.
قد يحدد الذكاء الاصطناعي مؤشرات محتملة لقدرة سداد القرض في بيانات المعاملات. يمكن للخبراء البشر بعد ذلك تقييم هذه المؤشرات من حيث العدالة وبناء نماذج صريحة ومفهومة للتأكد من قوتها التنبؤية.
سيخلق هذا النهج للذكاء الاصطناعي القابل للتوضيح فرقًا واضحًا بين المنظمات التي تستخدم الذكاء الاصطناعي سطحيًا وتلك التي تتحول عملياتها حولها. ستسحب الأخيرة بشكل متزايد إلى الأمام في صناعاتها، قادرة على تقديم منتجات وخدمات بأسعار لا يمكن منافستها من قبل منافسيها.
على عكس الذكاء الاصطناعي الأسود، فإن أنظمة الذكاء الاصطناعي القابل للتوضيح تضمن أن البشر يحتفظون بالإشراف المهم على تطبيق التكنولوجيا، مما يخلق مستقبلًا حيث يُضيف الذكاء الاصطناعي إلى الإمكانات البشرية بدلاً من استبدال العمل البشري ببساطة.












