Connect with us

جسر الثقة في مجال الذكاء الاصطناعي

قادة الفكر

جسر الثقة في مجال الذكاء الاصطناعي

mm

يصل تبني الذكاء الاصطناعي إلى نقطة انعطاف حاسمة. وتعتنق الشركات الذكاء الاصطناعي باحترام، مدفوعة بواعده لتحقيق تحسينات من الدرجة الأولى في الكفاءة التشغيلية.

وجد استطلاع حديث conducted by Slack أن تبني الذكاء الاصطناعي ي속، حيث شهد استخدام الذكاء الاصطناعي في أماكن العمل زيادة حديثة بنسبة 24٪ ويعتقد 96٪ من كبار المسؤولين التنفيذيين أن “من العاجل دمج الذكاء الاصطناعي في عمليات أعمالهم”.

然而، هناك فرق متزايد بين فائدة الذكاء الاصطناعي وزيادة القلق بشأن الآثار السلبية المحتملة. يعتقد فقط 7٪ من العمال المكتبيين أن مخرجات الذكاء الاصطناعي موثوقة بما يكفي لمساعدتهم في المهام المتعلقة بالعمل.

يظهر هذا الفجوة في التباين الصارخ بين حماس كبار المسؤولين التنفيذيين لدمج الذكاء الاصطناعي وشيكة العمال المتعلقة بعوامل مثل:

دور التشريعات في بناء الثقة

لمواجهة هذه القضايا المتعددة المتعلقة بالثقة، يُعتبر المزيد من التدابير التشريعية ضروريًا. يمكن للتشريعات أن تلعب دورًا حاسمًا في تنظيم تطوير وتطبيق الذكاء الاصطناعي، وبالتالي تعزيز الثقة. تشمل النهج التشريعية الرئيسية:

  • قوانين حماية البيانات والخصوصية: تنفيذ قوانين حماية البيانات الصارمة يضمن أن تعامل أنظمة الذكاء الاصطناعي مع البيانات الشخصية بشكل مسؤول. تشكل لوائح مثل لوائح حماية البيانات العامة (GDPR) في الاتحاد الأوروبي سابقة من خلال إلزامها بالشفافية وتقليل البيانات والموافقة المستخدم.
  • لوائح الذكاء الاصطناعي: أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي الأوروبي(EU AIA)، الذي يهدف إلى تنظيم استخدام أنظمة الذكاء الاصطناعي بناءً على مستويات المخاطر. يتضمن القانون متطلبات إلزامية لأنظمة الذكاء الاصطناعي عالية المخاطر، ويشمل مجالات مثل جودة البيانات والوثائق والشفافية والرقابة البشرية.

مبادرات المعايير لتأسيس ثقافة الذكاء الاصطناعي الموثوق

لا يحتاج الشركات إلى الانتظار حتى يتم تنفيذ القوانين الجديدة لتحديد ما إذا كانت عملياتها ضمن الإرشادات الأخلاقية والموثوقة. تعمل لوائح الذكاء الاصطناعي جنبًا إلى جنب مع مبادرات المعايير الناشئة التي تمكن المنظمات من تنفيذ حوكمة الذكاء الاصطناعي وأفضل الممارسات خلال دورة حياة أنظمة الذكاء الاصطناعي بأكملها، بما في ذلك التصميم والتنفيذ والتشغيل والتفكيك في النهاية.

تم تطوير إطار إدارة مخاطر الذكاء الاصطناعي من قبل معهد المعايير الوطني (NIST) في الولايات المتحدة لتقديم إرشادات للمنظمات في إدارة المخاطر المرتبطة بالذكاء الاصطناعي. يتم تنظيم الإطار حول أربعة وظائف أساسية:

  • فهم نظام الذكاء الاصطناعي والسياق الذي يعمل فيه. يتضمن ذلك تعريف الغرض والأطراف المعنية والآثار المحتملة لنظام الذكاء الاصطناعي.
  • تحديد المخاطر المرتبطة بنظام الذكاء الاصطناعي، بما في ذلك الجوانب الفنية وغير الفنية. يتضمن ذلك تقييم أداء النظام وموثوقيته والانحيازات المحتملة.
  • تنفيذ استراتيجيات للتخفيف من المخاطر المحددة. يتضمن ذلك تطوير السياسات والإجراءات والضوابط لضمان عمل نظام الذكاء الاصطناعي ضمن مستويات المخاطر المقبولة.
  • إنشاء هياكل الحوكمة وآليات المساءلة للإشراف على نظام الذكاء الاصطناعي وعملية إدارة المخاطر. يتضمن ذلك المراجعات والتحديثات المنتظمة لاستراتيجية إدارة المخاطر.

مستقبل الذكاء الاصطناعي والثقة العامة

فيما يتعلق بالآفاق، سيرتكز مستقبل الذكاء الاصطناعي والثقة العامة على عدة عوامل حاسمة من أجل جميع المنظمات:

  • إجراء تقييم مخاطر شامل لتحديد القضايا المحتملة المتعلقة بالامتثال. تقييم الآثار الأخلاقية والانحيازات المحتملة في أنظمة الذكاء الاصطناعي.
  • إنشاء فريق متعدد الوظائف يتضمن المحامين ومتخصصي الامتثال وموظفي تكنولوجيا المعلومات وعلوم البيانات. يجب أن يكون هذا الفريق مسؤولاً عن مراقبة التغييرات التنظيمية وضمان امتثال أنظمة الذكاء الاصطناعي للوائح الجديدة.
  • تنفيذ هيكل حوكمة يتضمن سياسات وإجراءات ودوائر لتدبير مبادرات الذكاء الاصطناعي. ضمان الشفافية في عمليات الذكاء الاصطناعي وعمليات اتخاذ القرار.
  • إجراء مراجعات داخلية منتظمة لضمان الامتثال للوائح الذكاء الاصطناعي. استخدام أدوات المراقبة لتتبع أداء نظام الذكاء الاصطناعي وامتثاله للمعايير التنظيمية.
  • تعليم الموظفين حول أخلاقيات الذكاء الاصطناعي والمتطلبات التنظيمية وأفضل الممارسات. تقديم دورات تدريبية مستمرة لتحديث الموظفين حول التغييرات في لوائح الذكاء الاصطناعي و استراتيجيات الامتثال.
  • الحفاظ على سجلات مفصلة لعمليات تطوير الذكاء الاصطناعي واستخدام البيانات و معايير اتخاذ القرار. الاستعداد لإنشاء تقارير يمكن تقديمها إلى الهيئات التنظيمية إذا لزم الأمر.
  • بناء علاقات مع الهيئات التنظيمية والمشاركة في الاستشارات العامة. تقديم تعليقات على اللوائح المقترحة وطلب التوضيحات عند الضرورة.

سياق الذكاء الاصطناعي لتحقيق الثقة

في النهاية، يعتمد الذكاء الاصطناعي الموثوق على سلامة البيانات. لا يعادل الاعتماد الكبير لأنظمة الذكاء الاصطناعي على مجموعات البيانات الكبيرة دقة وموثوقية الإخراج؛ بل هو عكس المعايير. تقنية التوليد المعزز بالاسترجاع (RAG) هي تقنية مبتكرة تجمع بين النماذج اللغوية الثابتة مع البيانات المحددة السياق. ويمكن اعتبارها كمساعد معرفة غني. مساعد يعرف كيف يطابق سياق الاستعلام مع بيانات محددة من قاعدة معرفة شاملة.

تمكن RAG المنظمات من تقديم تطبيقات محددة السياق التي تتوافق مع التوقعات المتعلقة بالخصوصية والأمان والدقة والموثوقية. يحسن RAG دقة الإجابات المولدة عن طريق استرجاع المعلومات ذات الصلة من قاعدة معرفة أو مستودع وثائق. هذا يسمح للنموذج بالاعتماد على المعلومات الدقيقة والمحدّثة.

تمنح RAG المنظمات القدرة على بناء تطبيقات الذكاء الاصطناعي المخصصة التي تتمتع بدقة عالية ووعي سياقي وتكيفية من أجل تحسين اتخاذ القرارات وتعزيز تجارب العملاء وتبسيط العمليات وتحقيق مزايا تنافسية كبيرة.

يتمثل جسر الثقة في مجال الذكاء الاصطناعي في ضمان الشفافية والمساءلة والاستخدام الأخلاقي للذكاء الاصطناعي. في حين لا يوجد जवاب واحد للحفاظ على هذه المعايير، فإن الشركات لديها استراتيجيات وأدوات تحت تصرفها. تنفيذ تدابير حماية البيانات الصارمة والامتثال للمعايير التنظيمية يبني ثقة المستخدمين. المراجعة المنتظمة لأنظمة الذكاء الاصطناعي للانحياز والضبط يضمن العدالة. تعزيز النماذج اللغوية الكبيرة (LLM) بالذكاء الاصطناعي المخصص يبني الثقة من خلال دمج قواعد المعرفة ومصادر البيانات الخاصة. المشاركة مع أصحاب المصلحة حول قدرات وقيود الذكاء الاصطناعي تؤسس الثقة والقبول.

الذكاء الاصطناعي الموثوق ليس من السهل تحقيقه، ولكنه التزام حاسم لمستقبلنا.

أندرو بيري هو مبشر بأخلاقيات الذكاء الاصطناعي في شركة أتمتة ذكية عالمية ABBYY. يحمل درجة ماجستير في القانون مع تميز من جامعة نورث وسترن بريتزكر للقانون و هو محترف معتمد في خصوصية البيانات. لدي بيري أكثر من 25 عامًا من الخبرة في قيادة برامج إدارة التكنولوجيا لشركات التكنولوجيا العالمية الرائدة. خبرته في أتمتة العملية الذكية للوثائق و الذكاء الاصطناعي مع خبرة خاصة في تكنولوجيا الذكاء الاصطناعي و البرمجيات التطبيقية و خصوصية البيانات و أخلاقيات الذكاء الاصطناعي.