اتصل بنا للحصول على مزيد من المعلومات

عندما تدخل تقنيات الذكاء الاصطناعي حيز التشغيل، تصبح قابلية التفسير أمراً لا يقبل المساومة.

قاده التفكير

عندما تدخل تقنيات الذكاء الاصطناعي حيز التشغيل، تصبح قابلية التفسير أمراً لا يقبل المساومة.

mm

مشروع اعتماد منظمة العفو الدولية دخلت مرحلة أكثر واقعية. بالنسبة لقادة التكنولوجيا، لم يعد التحدي يكمن في إقناع المؤسسة بإمكانات الذكاء الاصطناعي، بل في ضمان فهم الأنظمة المؤثرة على القرارات التشغيلية وإدارتها وحمايتها.

يكتسب الذكاء الاصطناعي مكانته في المؤسسات عندما يكون الأفراد على استعداد للاعتماد عليه. ولا يعتمد هذا الاعتماد على إحصائيات الأداء وحدها، بل على شعور الفرق بأنها تحتفظ بالسيطرة بعد أن تصبح الأتمتة جزءًا من سير العمل اليومي.

في العديد من المنظمات، يبقى هذا الشعور بالسيطرة غير مؤكد.

لماذا يؤدي الغموض إلى إبطاء عملية التبني؟

أصبح الذكاء الاصطناعي الآن جزءًا لا يتجزأ من مختلف المجالات عمليات تكنولوجيا المعلوماتبدءًا من توجيه طلبات الخدمة وصولًا إلى ربط الحوادث وتخطيط القدرات، تُعدّ هذه بيئات تتداخل فيها القرارات وتتفاقم فيها الأخطاء بسرعة. عندما تظهر مخرجات الذكاء الاصطناعي دون سياق، غالبًا ما تتردد الفرق. قد يتم نشر الأتمتة تقنيًا، لكن توصياتها لا تخضع للتدقيق، أو تُؤجّل، أو تُتجاهل بهدوء.

كثيراً ما يُساء فهم هذا السلوك على أنه مقاومة للتغيير. في الواقع، إنه يعكس المسؤولية المهنية في بيئات العمل عالية المخاطر. أمثلة عامة على فشل الذكاء الاصطناعي وقد زاد هذا الحذر حدةً. فعندما تُنتج الأنظمة الآلية مخرجات تبدو واثقة ولكنها تثبت عدم صحتها، نادرًا ما يكون الضرر ناتجًا عن الطموح وحده، بل عن الغموض. فإذا لم يستطع أحد شرح كيفية التوصل إلى استنتاج ما، فإن الثقة تتلاشى، حتى لو كان النظام دقيقًا في العادة.

يتجلى هذا الأمر بشكل غير مباشر داخل فرق تكنولوجيا المعلومات. تعمل الأتمتة في وضع استشاري بدلاً من وضع تنفيذي. يبقى المهندسون مسؤولين عن النتائج، ومع ذلك يُتوقع منهم الوثوق بمنطق لا يمكنهم التحقق منه. بمرور الوقت، يُولّد هذا الخلل احتكاكاً. الذكاء الاصطناعي موجود، لكن قيمته محدودة.

عملية ذكاء اصطناعي شفافة

أكبر شفافية و شرح يمكن معالجة هذه المشكلة من خلال إعادة المساءلة إلى عملية اتخاذ القرارات الآلية. لا يعني الذكاء الاصطناعي القابل للتفسير الكشف عن كل عملية حسابية داخلية، بل يعني توفير رؤى ذات صلة بالمشغلين البشريين؛ أي البيانات التي أثرت في القرار، وأي الظروف كان لها الأثر الأكبر، وكيف تم تقييم مستويات الثقة. يتيح هذا السياق للفرق تقييم مدى توافق المخرجات مع الواقع العملي.

يُعرف أيضاً باسم الذكاء الاصطناعي ذو الصندوق الأبيض، AI قابل للتفسير يُنشئ هذا النظام طبقة تفسيرية تشرح كيفية اتخاذ قرارات الذكاء الاصطناعي، بدلاً من إخفاء عملياته ومنطقه. وهذا لا يعني فقط إمكانية دمج أنظمة الذكاء الاصطناعي ضمن إطار عمل أكثر شفافية ومساءلة، بل يعني أيضاً فهم المستخدمين لكيفية عمل كل نظام. كما يعني ذلك القدرة على تحديد نقاط ضعف نماذج الذكاء الاصطناعي والحماية من التحيزات.

الأهم من ذلك، أن قابلية التفسير تعني أنه عندما يحدث خطأ ما، يمكن للفرق تتبع مسار التفكير، وتحديد المؤشرات الضعيفة، وتحسين العملية. وبدون هذه الشفافية، إما أن تتكرر الأخطاء أو يتم تجنبها تمامًا عن طريق تعطيل التشغيل الآلي.

إمكانية التفسير في العمل

لنأخذ إدارة الحوادث كمثال. غالبًا ما يُستخدم الذكاء الاصطناعي لتجميع التنبيهات واقتراح الأسباب المحتملة. في بيئات المؤسسات الكبيرة، قد يؤدي تصنيف تبعية واحدة بشكل خاطئ أثناء حادث كبير إلى تأخير الحل لساعات، مما يستدعي فرقًا متعددة لإجراء تحقيقات متوازية بينما تبقى الخدمات المقدمة للعملاء متأثرة سلبًا. عندما تُرفق هذه الاقتراحات بشرح واضح للأنظمة المتأثرة، وكيفية الوصول إلى التبعيات، أو الحوادث السابقة التي تمت الإشارة إليها، يستطيع المهندسون تقييم التوصية بسرعة. إذا تبين أنها خاطئة، يمكن استخدام هذه المعلومة لتحسين كل من النموذج والعملية.

بدون هذه الشفافية، تعود الفرق إلى التشخيص اليدوي، بغض النظر عن مدى تقدم الذكاء الاصطناعي.

تُعدّ حلقة التغذية الراجعة هذه أساسية لاستمرار تبني الأنظمة. فالأنظمة القابلة للتفسير تتطور جنباً إلى جنب مع الأشخاص الذين يستخدمونها. أنظمة الصندوق الأسودوعلى النقيض من ذلك، تميل هذه الشركات إلى الركود أو التهميش بمجرد انخفاض مستوى الثقة.

المساءلة والملكية

كما أن قابلية التفسير تغير كيفية المساءلة تتوزع المسؤولية. في بيئات العمل، لا تختفي المسؤولية بمجرد أتمتة القرار، بل يبقى هناك من يتحمل تبعات النتيجة. عندما يستطيع الذكاء الاصطناعي شرح نفسه، تصبح المساءلة أوضح وأسهل إدارة. ويمكن مراجعة القرارات وتبريرها وتحسينها دون اللجوء إلى حلول ترقيعية.

هناك الحكم تُعدّ الفائدة أيضًا، وإن كانت نادرًا ما تكون الدافع الرئيسي داخليًا. تتطلب أطر حماية البيانات والمساءلة الحالية من المؤسسات شرح القرارات الآلية في سياقات معينة. ومع استمرار تطور اللوائح الخاصة بالذكاء الاصطناعي، قد تُعرّض الأنظمة التي تفتقر إلى الشفافية المؤسسات لمخاطر غير ضرورية.

مع ذلك، تكمن القيمة الأكبر للشفافية في تعزيز المرونة لا في الامتثال. فالفرق التي تفهم أنظمتها تتعافى بشكل أسرع، وتحل المشكلات بكفاءة أكبر، وتقضي وقتاً أقل في مناقشة مدى موثوقية الأتمتة من الأساس.

تصميم الذكاء الاصطناعي لتحقيق التميز التشغيلي

يتلقى المهندسون تدريباً على التشكيك في الافتراضات، وفحص التبعيات، واختبار النتائج. وعندما تدعم الأتمتة هذه الغرائز بدلاً من تجاوزها، يصبح التبني تعاونياً وجزءاً من العملية بدلاً من كونه هيكلاً مفروضاً.

لا شك أن بناء الأنظمة بهذه الطريقة ينطوي على تكلفة. فالذكاء الاصطناعي القابل للتفسير يتطلب ممارسات بيانات منضبطة، وخيارات تصميم مدروسة، وكوادر مؤهلة قادرة على تفسير المخرجات بمسؤولية. قد لا يتوسع بنفس سرعة النماذج المبهمة المُحسّنة فقط للسرعة أو الابتكار. ومع ذلك، فإن العائد على هذا الاستثمار هو الاستقرار.

تُلاحظ المؤسسات التي تُولي أهميةً قصوى لشفافية العمليات انخفاضًا في عدد المبادرات المتعثرة وتراجعًا في اتخاذ القرارات غير الرسمية. يصبح التشغيل الآلي طبقةً موثوقةً ضمن العمليات التشغيلية بدلًا من كونه تجربةً موازيةً تُجرى بمعزلٍ عن غيرها. ويتحسن وقت تحقيق القيمة ليس لأن الأنظمة أسرع، بل لأن الفرق مستعدةٌ لاستخدامها على أكمل وجه.

التوسع بمسؤولية

مع ترسيخ الذكاء الاصطناعي كجزء لا يتجزأ من البنية التحتية للمؤسسات، سيُقاس النجاح بشكل أقل بالطموح وأكثر بالموثوقية. فالأنظمة القادرة على تفسير قراراتها يسهل الوثوق بها، ويسهل تطويرها، ويسهل الدفاع عنها عند التشكيك في نتائجها.

في البيئات التشغيلية، لا تتوسع المعرفة إلا عندما يواكب الفهم مستوى الأتمتة.

فيمالراج سامباثكومار، رئيس القسم التقني - المملكة المتحدة وأيرلندا، ManageEngineيشغل منصب مدير ما قبل البيع والحسابات الاستراتيجية، ولديه خبرة 13 عامًا في المبيعات التقنية وإدارة الحسابات ونجاح العملاء. يتمتع بخبرة تقنية واسعة في مجال الاستشارات وتطبيق أنظمة إدارة خدمات تكنولوجيا المعلومات (ITSM)، وإدارة عمليات تكنولوجيا المعلومات (ITOM)، وإدارة معلومات الأمان والأحداث (SIEM)، وإدارة نقاط النهاية، وإدارة علاقات العملاء (CRM)، وأنظمة تتبع المتقدمين للوظائف (ATS)، وأنظمة إدارة رأس المال البشري (HCM/HRIS) على مستوى العالم. وقد تميزت خبرته بتحقيق نمو في الإيرادات والحصة السوقية من خلال تقديم حلول تركز على العملاء باستمرار، وإبراز قيمة المنتج، وبناء أساس متين لعلاقات طويلة الأمد مع العملاء. يستمتع في أوقات فراغه بلعب الكريكيت والقراءة والسفر.