قاده التفكير
سد فجوة الثقة في الذكاء الاصطناعي
يصل اعتماد الذكاء الاصطناعي إلى نقطة انعطاف حرجة. تتبنى الشركات الذكاء الاصطناعي بحماس، مدفوعة بوعدها بتحقيق تحسينات هائلة في الكفاءة التشغيلية.
A الأخيرة مسح الركود وجدت أن تبني الذكاء الاصطناعي مستمر في التسارع، حيث شهد استخدام الذكاء الاصطناعي في أماكن العمل زيادة مؤخرًا بنسبة 24%، ويعتقد 96% من المديرين التنفيذيين الذين شملهم الاستطلاع أنه "من الملح دمج الذكاء الاصطناعي في جميع عملياتهم التجارية".
ومع ذلك ، هناك اتساع الفجوة بين فائدة الذكاء الاصطناعي والقلق المتزايد بشأن آثاره السلبية المحتملة. 7% فقط من العاملين في المكاتب يعتقدون ذلك مخرجات الذكاء الاصطناعي جديرون بالثقة بما يكفي لمساعدتهم في المهام المتعلقة بالعمل.
تتجلى هذه الفجوة في التناقض الصارخ بين حماس المديرين التنفيذيين لتكامل الذكاء الاصطناعي وتشكك الموظفين فيما يتعلق بعوامل مثل:
- التحيز والعدالة: أنظمة الذكاء الاصطناعي قادرة على ذلك إدامة أو حتى تفاقم التحيزات القائمة مما يؤدي إلى نتائج غير عادلة.
- الخصوصية والأمان: الموظفون يشعرون بالقلق حول كيفية استخدام بياناتهم الشخصية يتم جمعها وتخزينها واستخدامها بواسطة أنظمة الذكاء الاصطناعي.
- اتخاذ قرارات مبهمة: غالبًا ما تعمل أنظمة الذكاء الاصطناعي كـ "صناديق سوداء"، حيث تتخذ القرارات يصعب على البشر فهمها أو شرح.
- القلق من الأتمتة: هناك خوف واسع النطاق من ذلك سوف يحل الذكاء الاصطناعي محل الوظائف البشريةمما يؤدي إلى البطالة وعدم الاستقرار الاقتصادي.
دور التشريع في بناء الثقة
ولمعالجة قضايا الثقة المتعددة الأوجه هذه، يُنظر إلى التدابير التشريعية على نحو متزايد باعتبارها خطوة ضرورية. ويمكن للتشريعات أن تلعب دورا محوريا في تنظيم تطوير الذكاء الاصطناعي ونشره، وبالتالي تعزيز الثقة. وتشمل النهج التشريعية الرئيسية ما يلي:
- قوانين حماية البيانات والخصوصية: يضمن تطبيق قوانين حماية البيانات الصارمة أن أنظمة الذكاء الاصطناعي تتعامل مع البيانات الشخصية بطريقة مسؤولة. تشكل اللوائح التنظيمية مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي سابقة من خلال فرض الشفافية وتقليل البيانات وموافقة المستخدم. بخاصة، المادة 22 من اللائحة العامة لحماية البيانات يحمي أصحاب البيانات من الآثار السلبية المحتملة لاتخاذ القرارات الآلية. تؤكد القرارات الأخيرة لمحكمة العدل التابعة للاتحاد الأوروبي (CJEU) على حقوق الشخص في عدم الخضوع لعملية صنع القرار الآلي. في حالة شوفا القابضة إيه جي, عندما تم رفض طلب مقيم ألماني للحصول على قرض مصرفي على أساس نظام آلي لاتخاذ القرار الائتماني، رأت المحكمة أن المادة 22 تلزم المنظمات بتنفيذ التدابير لحماية حقوق الخصوصية المتعلقة باستخدام تقنيات الذكاء الاصطناعي.
- لوائح الذكاء الاصطناعي: لقد صدق الاتحاد الأوروبي على قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي (الاتحاد الأوروبي AIA)، والذي يهدف إلى تنظيم استخدام أنظمة الذكاء الاصطناعي بناءً على مستويات المخاطر الخاصة بها. ويتضمن القانون متطلبات إلزامية لأنظمة الذكاء الاصطناعي عالية المخاطر، تشمل مجالات مثل جودة البيانات، والتوثيق، والشفافية، والرقابة البشرية. إحدى الفوائد الأساسية للوائح الذكاء الاصطناعي هي تعزيز الشفافية وقابلية الشرح لأنظمة الذكاء الاصطناعي. علاوة على ذلك، تضع اتفاقية AIA للاتحاد الأوروبي أطر مساءلة واضحة، مما يضمن أن المطورين والمشغلين وحتى مستخدمي أنظمة الذكاء الاصطناعي مسؤولون عن أفعالهم ونتائج نشر الذكاء الاصطناعي. هذا يتضمن آليات الإنصاف إذا تسبب نظام الذكاء الاصطناعي في حدوث ضرر. عندما تتم مساءلة الأفراد والمنظمات، فإن ذلك يبني الثقة في أن أنظمة الذكاء الاصطناعي تدار بطريقة مسؤولة.
مبادرات المعايير لتعزيز ثقافة الذكاء الاصطناعي الجديرة بالثقة
لا تحتاج الشركات إلى انتظار تنفيذ القوانين الجديدة لتحديد ما إذا كانت عملياتها ضمن المبادئ التوجيهية الأخلاقية والجديرة بالثقة. تعمل لوائح الذكاء الاصطناعي جنبًا إلى جنب مع مبادرات معايير الذكاء الاصطناعي الناشئة التي تمكن المؤسسات من تنفيذ حوكمة الذكاء الاصطناعي المسؤولة وأفضل الممارسات خلال دورة حياة أنظمة الذكاء الاصطناعي بأكملها، بما في ذلك التصميم والتنفيذ والنشر وإيقاف التشغيل في نهاية المطاف.
قام المعهد الوطني للمعايير والتكنولوجيا (NIST) في الولايات المتحدة بتطوير أداة إطار عمل إدارة مخاطر الذكاء الاصطناعي لتوجيه المؤسسات في إدارة المخاطر المتعلقة بالذكاء الاصطناعي. يتمحور الإطار حول أربع وظائف أساسية:
- فهم نظام الذكاء الاصطناعي والسياق الذي يعمل فيه. يتضمن ذلك تحديد الغرض وأصحاب المصلحة والتأثيرات المحتملة لنظام الذكاء الاصطناعي.
- تحديد المخاطر المرتبطة بنظام الذكاء الاصطناعي، بما في ذلك الجوانب الفنية وغير الفنية. يتضمن ذلك تقييم أداء النظام وموثوقيته والتحيزات المحتملة.
- تنفيذ استراتيجيات للتخفيف من المخاطر المحددة. يتضمن ذلك تطوير السياسات والإجراءات والضوابط لضمان عمل نظام الذكاء الاصطناعي ضمن مستويات المخاطر المقبولة.
- إنشاء هياكل الحوكمة وآليات المساءلة للإشراف على نظام الذكاء الاصطناعي وعمليات إدارة المخاطر الخاصة به. يتضمن ذلك مراجعات وتحديثات منتظمة لاستراتيجية إدارة المخاطر.
استجابة للتقدم في تقنيات الذكاء الاصطناعي التوليدي كما نشرت NIST إطار إدارة مخاطر الذكاء الاصطناعي: ملف تعريف الذكاء الاصطناعي التوليدي, الذي يوفر إرشادات للتخفيف من المخاطر المحددة المرتبطة بالنماذج التأسيسية. وتشمل هذه التدابير الحماية من الاستخدامات الشائنة (مثل التضليل، والمحتوى المهين، وخطاب الكراهية)، والتطبيقات الأخلاقية للذكاء الاصطناعي التي تركز على القيم الإنسانية للعدالة والخصوصية وأمن المعلومات والملكية الفكرية والاستدامة.
علاوة على ذلك، قامت المنظمة الدولية للمعايير (ISO) واللجنة الكهروتقنية الدولية (IEC) بشكل مشترك بتطوير إسو/إيك 23894، معيار شامل لإدارة مخاطر الذكاء الاصطناعي. يوفر هذا المعيار نهجًا منظمًا لتحديد المخاطر وإدارتها طوال دورة حياة الذكاء الاصطناعي بما في ذلك تحديد المخاطر، وتقييم شدة المخاطر، والعلاج للتخفيف منها أو تجنبها، والمراقبة والمراجعة المستمرة.
مستقبل الذكاء الاصطناعي والثقة العامة
وبالنظر إلى المستقبل، من المرجح أن يتوقف مستقبل الذكاء الاصطناعي وثقة الجمهور على عدة عوامل رئيسية ضرورية يجب على جميع المؤسسات اتباعها:
- إجراء تقييم شامل للمخاطر لتحديد مشكلات الامتثال المحتملة. قم بتقييم الآثار الأخلاقية والتحيزات المحتملة في أنظمة الذكاء الاصطناعي لديك.
- إنشاء فريق متعدد الوظائف بما في ذلك المتخصصين في الشؤون القانونية والامتثال وتكنولوجيا المعلومات وعلوم البيانات. يجب أن يكون هذا الفريق مسؤولاً عن مراقبة التغييرات التنظيمية والتأكد من التزام أنظمة الذكاء الاصطناعي لديك باللوائح الجديدة.
- تنفيذ هيكل حوكمة يتضمن السياسات والإجراءات والأدوار لإدارة مبادرات الذكاء الاصطناعي. ضمان الشفافية في عمليات الذكاء الاصطناعي وعمليات صنع القرار.
- إجراء عمليات تدقيق داخلية منتظمة لضمان الامتثال للوائح الذكاء الاصطناعي. استخدم أدوات المراقبة لتتبع أداء نظام الذكاء الاصطناعي والالتزام بالمعايير التنظيمية.
- تثقيف الموظفين حول أخلاقيات الذكاء الاصطناعي والمتطلبات التنظيمية وأفضل الممارسات. توفير دورات تدريبية مستمرة لإبقاء الموظفين على اطلاع بالتغييرات في لوائح الذكاء الاصطناعي واستراتيجيات الامتثال.
- الاحتفاظ بسجلات مفصلة لعمليات تطوير الذكاء الاصطناعي واستخدام البيانات ومعايير اتخاذ القرار. الاستعداد لإنشاء التقارير التي يمكن تقديمها إلى الجهات التنظيمية إذا لزم الأمر.
- بناء العلاقات مع الهيئات التنظيمية والمشاركة في المشاورات العامة. تقديم ملاحظات حول اللوائح المقترحة وطلب التوضيحات عند الضرورة.
ضع الذكاء الاصطناعي في سياقه لتحقيق ذكاء اصطناعي جدير بالثقة
في نهاية المطاف، يعتمد الذكاء الاصطناعي الجدير بالثقة على سلامة البيانات. إن اعتماد الذكاء الاصطناعي التوليدي على مجموعات البيانات الكبيرة لا يعني دقة وموثوقية المخرجات؛ إذا كان هناك أي شيء، فهو يتعارض مع كلا المعيارين. يعد الجيل المعزز للاسترجاع (RAG) تقنية مبتكرة تعمل على "يجمع بين LLMs الثابتة والبيانات الخاصة بالسياق. ويمكن اعتباره مساعدًا على درجة عالية من المعرفة. واحد يطابق سياق الاستعلام مع بيانات محددة من قاعدة معرفية شاملة". يمكّن RAG المؤسسات من تقديم تطبيقات محددة السياق تلتزم بتوقعات الخصوصية والأمان والدقة والموثوقية. تعمل RAG على تحسين دقة الاستجابات التي تم إنشاؤها من خلال استرداد المعلومات ذات الصلة من قاعدة المعرفة أو مستودع المستندات. يتيح ذلك للنموذج أن يبني إنتاجه على معلومات دقيقة وحديثة.
تعمل RAG على تمكين المؤسسات من إنشاء تطبيقات ذكاء اصطناعي مصممة خصيصًا لهذا الغرض وتكون دقيقة للغاية ومدركة للسياق وقابلة للتكيف من أجل تحسين عملية صنع القرار وتعزيز تجارب العملاء وتبسيط العمليات وتحقيق مزايا تنافسية كبيرة.
يتضمن سد فجوة الثقة في الذكاء الاصطناعي ضمان الشفافية والمساءلة والاستخدام الأخلاقي للذكاء الاصطناعي. في حين لا توجد إجابة واحدة للحفاظ على هذه المعايير، فإن الشركات لديها استراتيجيات وأدوات تحت تصرفها. يؤدي تنفيذ تدابير قوية لخصوصية البيانات والالتزام بالمعايير التنظيمية إلى بناء ثقة المستخدم. إن التدقيق المنتظم على أنظمة الذكاء الاصطناعي بحثًا عن التحيز وعدم الدقة يضمن العدالة. إن تعزيز نماذج اللغات الكبيرة (LLMs) باستخدام الذكاء الاصطناعي المبني لهذا الغرض يوفر الثقة من خلال دمج قواعد المعرفة ومصادر البيانات الخاصة. كما أن إشراك أصحاب المصلحة حول قدرات الذكاء الاصطناعي وقيوده يعزز الثقة والقبول
لا يمكن تحقيق الذكاء الاصطناعي الجدير بالثقة بسهولة، ولكنه التزام حيوي تجاه مستقبلنا.












