قاده التفكير
لماذا ينبغي على الشركات اتباع نهج قائم على القيم في إدارة الذكاء الاصطناعي؟

في سبتمبر 2025، اجتمعت جميع الدول الأعضاء في الأمم المتحدة لأول مرة لمناقشة حوكمة الذكاء الاصطناعي على الصعيد الدولي؛ ومثّل العديد منها مجدداً في فبراير في قمة تأثير الذكاء الاصطناعي في دلهي. وأسفر هذا الحدث عن إطلاق هيئتين جديدتين تُعنى بحوكمة الذكاء الاصطناعي؛ إلا أنه كان، في أحسن الأحوال، نجاحاً رمزياً.
صُممت آليات الأمم المتحدة الجديدة لضمان التوافق، فهي تتجنب المجالات المتنازع عليها كاستخدامات الذكاء الاصطناعي في المجال العسكري، وتفتقر إلى مصادر تمويل واضحة وصلاحيات إنفاذ قوية. وهذا ليس بالأمر المفاجئ للمراقبين ذوي الخبرة. فالأمم المتحدة اليوم تفتقر إلى القدرة على التحرك بسرعة أو ضمان الامتثال العالمي لقراراتها، مما يجعلها منتدىً صعباً لإحداث تغيير حقيقي.
يتماشى هذا مع نمط راسخ. فعلى الرغم من سنوات من المحاولات المتفرقة لبناء توافق في الآراء بشأن لوائح الذكاء الاصطناعي، لم تُبرم أي اتفاقيات دولية هامة، مما خلق فراغًا اضطرت فيه الدول والتكتلات إلى وضع قواعدها الخاصة. ومع ذلك، فإن الحوكمة الفعالة للذكاء الاصطناعي أمر بالغ الأهمية إذا أردنا أن نراه يُعتمد على نطاق واسع، ويحظى بثقة الجمهور، ويُستخدم بطرق تُحقق فوائد اجتماعية واقتصادية مستدامة.
اصنع ما تشاء وأصلح ما لا تحتاجه
بالنسبة للشركات العالمية التي تُنشئ وتُشغّل أنظمة الذكاء الاصطناعي، يُشكّل غياب آليات حوكمة مشتركة ومتفق عليها مشكلةً حقيقية. فهي ترغب في نشر أنظمة الذكاء الاصطناعي في جميع أنحاء العالم، ولكن لا يوجد نظامان قانونيان يلتزمان بمجموعة القواعد نفسها. لذا، تُضطر هذه الشركات إلى إنشاء إطار حوكمة عام حول أنظمتها، ثم إعادة بنائه من الصفر في كل دولة تعمل بها لضمان توافقه مع القوانين واللوائح المحلية. يُؤدي هذا النهج إلى زيادة هائلة في العمل، ويجعل مبادرات الذكاء الاصطناعي أكثر تكلفةً وعرضةً للتأخير، ويُضعف قدرة الشركات العالمية على تحقيق وفورات الحجم ومشاركة الأدوات الفعّالة مع المستخدمين في كل مكان.
مع ذلك، ثمة بديل. بالنسبة للشركات التي تسعى إلى تبسيط نهجها، قد يكون الخيار الأمثل هو بناء إطار حوكمة للذكاء الاصطناعي يراعي المبادئ الأخلاقية المشتركة في مختلف المناطق، ما يضمن استيفاءها لأعلى المعايير في كل مكان فيما يتعلق بحماية حرية الأفراد وخصوصيتهم وأمنهم. تمثل هذه التقنية وسيلة فعّالة لشركات الذكاء الاصطناعي لتعزيز ثقة الجمهور بتقنياتها، وتوسيع قاعدة عملائها، وتسخير فوائد الذكاء الاصطناعي المحتملة للمجتمع.
ست قيم أساسية لحوكمة الذكاء الاصطناعي
بالنسبة لأي منظمة مهتمة بتبني نهج قائم على القيم لحوكمة الذكاء الاصطناعي، أقترح استخدام القيم الرئيسية الست التي نتبعها: المساءلة، والتفسير، والشفافية، والإنصاف، والأمن، وقابلية التنافس.
اخترنا هذه القيم لأنها تغطي جميع المجالات الرئيسية لدورة حياة نظام الذكاء الاصطناعي، ولأنها قد تم تقنينها بالفعل في العديد من المعايير الدولية والوطنية المتعلقة بالذكاء الاصطناعي، مثل معايير المنظمة الدولية للتوحيد القياسي (ISO). ISO / IEC 42001 و مبادئ السلوك دليل استخدام الذكاء الاصطناعي لحكومة المملكة المتحدة.
بدايةً من أعلى الهرم، تعني المساءلة معرفة المسؤوليات في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. فبدون تحديد واضح للمسؤوليات، قد تُهمل ضوابط حيوية لعدم وجود فرد أو فريق يتحمل المسؤولية النهائية. لذا، ينبغي للمؤسسات تعيين مسؤولين رفيعي المستوى - مثل كبير مسؤولي الذكاء الاصطناعي - لأنظمة الذكاء الاصطناعي ومراحلها الرئيسية، واستخدام نموذج حوكمة قائم على المخاطر، مع تطبيق نفس معايير التدقيق على أدوات الطرف الثالث كما هو الحال مع الأدوات المطورة داخليًا. وهذا يعني فهم شروط الموردين وقيودهم والتزاماتهم بنفس القدر الذي يفهمون به أنظمتهم الخاصة.
وقد لخصت منظمة التعاون الاقتصادي والتنمية هذا الأمر بشكل جيد في إرشاداتها بشأن تعزيز المساءلة في الذكاء الاصطناعي، والتي توصي بأن تقوم المنظمات بإنشاء "آليات لدمج عملية إدارة مخاطر الذكاء الاصطناعي في الحوكمة التنظيمية الأوسع، وتعزيز ثقافة إدارة المخاطر داخل المنظمات وعبر سلسلة قيمة الذكاء الاصطناعي بأكملها".
ثم تأتي مسألة قابلية التفسير. ينبغي أن تكون المنظمات قادرة على إظهار كيف عندما يتخذ نظام الذكاء الاصطناعي قرارًا، يتطلب ذلك آليات لتوثيق عملية اتخاذ القرار وتتبعها، إلى جانب سجلات واضحة لتصميم النظام وبيانات التدريب وعمليات اتخاذ القرار. يُمكّن هذا مجتمعًا الفرق من فهم مسار المعلومات منذ بداية النظام وحتى نشره.
يركز مبدأ العدالة على ضمان أن تُنتج أنظمة الذكاء الاصطناعي نتائج عادلة، وألا تُكرر أو تُضخّم التحيزات القائمة. فبدون عمليات تدقيق مُتعمّدة، قد تُلحق هذه الأنظمة الضرر من خلال تقديم نتائج مُتحيزة، وهي مشكلة خاصة في المجالات ذات التأثير الكبير، مثل التوظيف والرعاية الصحية والعدالة الجنائية. وللتخفيف من هذه المشكلة، ينبغي على المؤسسات تطبيق إجراءات للكشف عن التحيز، ومراجعة المخرجات بانتظام عبر المجموعات المعنية، وتصميم أُطر حوكمة تُراعي متطلبات عدم التمييز المحلية. عمليًا، يعني هذا بناء أنظمة تُلبي أعلى المعايير القانونية التي يُحتمل أن تواجهها، بما في ذلك الالتزامات بموجب قوانين مثل قانون المساواة البريطاني لعام 2010 وميثاق الحقوق الأساسية للاتحاد الأوروبي.
تُعنى الشفافية بتوفير الوضوح لكلٍ من المستخدمين والجهات التنظيمية. ينبغي أن يفهم الجميع متى يُستخدم الذكاء الاصطناعي، ودوره في عملية صنع القرار، والبيانات التي يستند إليها. وتتمثل نقطة البداية العملية في توحيد الوثائق في جميع أنظمة الذكاء الاصطناعي، بدعم من أدوات داخلية مثل بطاقات النماذج: وهي وثائق موجزة تُرفق بنماذج التعلم الآلي، تشرح السياق الذي يُراد استخدام هذه النماذج فيه، وتفاصيل إجراءات تقييم الأداء، وغيرها من المعلومات ذات الصلة. فبدون الشفافية، لا يستطيع المستخدمون الاعتراض على النتائج غير العادلة، ولا تستطيع الجهات التنظيمية التدخل بفعالية، وقد تُتجاهل الآثار الضارة.
يشمل الأمن حماية أنظمة الذكاء الاصطناعي من الوصول غير المصرح به، والتلاعب، أو السلوك غير المقصود. في حال ضعف الأمن، قد تُعرّض أنظمة الذكاء الاصطناعي المؤسسات والمستخدمين وبياناتهم للخطر، مما يُلحق بهم أضرارًا مالية وسمعةً سيئة. لذا، ينبغي على المؤسسات تحديد معايير الأداء والدقة، وإجراء اختبارات تحمل للأنظمة في ظروف واقعية، وتطبيق اختبارات الفريق الأحمر لتحديد نقاط الضعف.
وأخيرًا، تضمن إمكانية الاعتراض وجود آلية واضحة وسهلة الوصول للأفراد للطعن في القرارات التي تتخذها أنظمة الذكاء الاصطناعي أو استئنافها. فبدون هذه الآلية، لا يملك المستخدمون المتضررون أي سبيل للانتصاف، وقد لا تظهر المشكلات أو تُحل أبدًا. لذا، ينبغي على المؤسسات توفير قنوات للإبلاغ عند نقطة الاستخدام، وتعيين مسؤولين رفيعي المستوى لإدارة الشكاوى، وضمان إمكانية إيقاف الأنظمة مؤقتًا أو مراجعتها أو تحديثها عند الضرورة.
ما هي فوائد الإطار القائم على القيم؟
هناك سببان قويان لاعتماد هذا النهج القائم على القيم في إدارة الذكاء الاصطناعي. أولاً، لأن من يقومون ببناء ونشر أنظمة الذكاء الاصطناعي يتحملون مسؤولية أخلاقية تجاه الأفراد والمنظمات المتأثرة بها؛ وثانياً، لأن هذه طريقة أكثر فعالية لتحقيق الفوائد المرجوة من الذكاء الاصطناعي على أرض الواقع.
يضع مستخدمو أنظمة الذكاء الاصطناعي، سواء من الشركات أو الأفراد، ثقةً ضمنيةً في مطوريها بعدم إساءة استخدام البيانات الشخصية أو تعريضهم لمخاطر غير ضرورية. وعندما تخون المؤسسات هذه الثقة، يصبح من الصعب عليها الاحتفاظ بهؤلاء المستخدمين. في نهاية المطاف، ما لم يثق الناس بأنظمة الذكاء الاصطناعي، ويروا فوائدها الواضحة، فلن يتقبلوها. وهذا سيؤدي إلى مزيد من الانقسام الاجتماعي والاقتصادي، وسنفقد العديد من الفرص التي تتيحها هذه التقنية.
من جهة أخرى، تستطيع الشركات التي تطبق إطار عمل قائم على القيم في كل مكان - بما في ذلك المناطق ذات متطلبات الحوكمة الأقل صرامة - أن تثبت لعملائها ومستثمريها وهيئات الرقابة أنها تلتزم بمعايير أعلى من متطلبات الامتثال الأساسية. وهذا يبني الثقة والتفاعل، ويؤدي في نهاية المطاف إلى نجاح الأعمال.
تُعدّ الحوكمة القوية للذكاء الاصطناعي عاملاً مُحفزاً للقيمة، وليست عبئاً على الامتثال. فهي تُمكّن الشركات من طرح منتجات جديدة في السوق بسرعة أكبر، والحدّ من تعرضها للمخاطر، وتوسيع نطاق حلولها عبر أسواق متعددة بثقة.
ماكينزيحالة الذكاء الاصطناعي تقرير وجدت أن "إن إشراف الرئيس التنفيذي على حوكمة الذكاء الاصطناعي... هو أحد العناصر الأكثر ارتباطًا بارتفاع التأثير الإيجابي المُبلغ عنه ذاتيًا لاستخدام الذكاء الاصطناعي في المؤسسة." مما يؤكد الفوائد التجارية لهذا النهج. وفي هذا الصدد، يمثل بناء أطر أخلاقية متينة في أنظمة الذكاء الاصطناعي مصلحة ذاتية مستنيرة.
وبغض النظر عن كل ذلك، فهو ببساطة الخيار الصائب. لقد بنينا سياستنا العالمية الأخلاقية للذكاء الاصطناعي على المبدأ نفسه: أن التقنيات المتقدمة يجب أن تخدم الإنسان والمجتمع، لا العكس. وهذا يعكس الرؤية الأوسع لمجتمع 5.0: نموذج ابتكار يتمحور حول الإنسان ويسعى إلى الجمع بين التقدم الاقتصادي وحل التحديات الاجتماعية.
إذا كان للتقنيات الناشئة، كالذكاء الاصطناعي، أن تُسهم في بناء مجتمع أكثر سعادة وانسجاماً، فلا بد من تأسيسها على أسس أخلاقية متينة. ويبدأ ذلك بالتركيز ليس فقط على المعايير التي يتعين على المؤسسات الالتزام بها، بل أيضاً على المعايير التي تسعى إلى تحقيقها.












