Connect with us

لم يجب أن تتبع الشركات نهجًا قائمًا على القيم في حوكمة الذكاء الاصطناعي

قادة الفكر

لم يجب أن تتبع الشركات نهجًا قائمًا على القيم في حوكمة الذكاء الاصطناعي

mm

في سبتمبر 2025، اجتمعت جميع الدول الأعضاء في الأمم المتحدة لأول مرة لمناقشة حوكمة الذكاء الاصطناعي الدولية؛ تم تمثيل العديد منهم مرة أخرى في فبراير في قمة تأثير الذكاء الاصطناعي في دلهي. أدى الحدث إلى إطلاق两个 هيئات جديدتين مركزتين على حوكمة الذكاء الاصطناعي؛ ولكن كان هذا، على أفضل تقدير، نجاحًا رمزيًا.

تم تصميم آليات الأمم المتحدة الجديدة لتأمين الإجماع: وهي تبتعد عن المناطق المتنازع عليها مثل الاستخدامات العسكرية للذكاء الاصطناعي، وتفتقر إلى مصادر واضحة للتمويل وسلطات إنفاذ. لا ينبغي أن يكون هذا مفاجئًا للمراقبين ذوي الخبرة. الأمم المتحدة اليوم تفتقر إلى القدرة على التحرك بسرعة أو ضمان الامتثال الشامل لقراراتها، مما يجعلها منتدى صعبًا لتحقيق التغيير الحقيقي.

يتماشى هذا مع نمط محدد جيدًا. على الرغم من السنوات العديدة من المحاولات المبعثرة لبناء إجماع على لوائح الذكاء الاصطناعي، لم تكن هناك أي اتفاقيات دولية مهمة، مما خلق فراغًا الذي اضطرت الدول والكتل الفردية إلى تطوير قواعدها الخاصة. ومع ذلك، فإن حوكمة الذكاء الاصطناعي الفعالة حاسمة إذا كنا نريد رؤيته يُعتمد على نطاق واسع، ويتوافق مع الثقة العامة، ويُستخدم على طرق تؤدي إلى فوائد اجتماعية واقتصادية دائمة.

التصليح والصيانة

对于 الشركات العالمية التي تبني وتشغل أنظمة الذكاء الاصطناعي، فإن عدم وجود آليات حوكمة مشتركة متفق عليها هو مشكلة. إنهم يرغبون في نشر أنظمة الذكاء الاصطناعي في جميع أنحاء العالم، ولكن لا تتبع أي من السلطات القضائية نفس مجموعة القواعد. لذلك، فإنهم مجبورون بدلاً من ذلك إلى إنشاء إطار حوكمة عام حول نظامهم، ثم إعادة بنائه من الصفر في كل بلد يعملون فيه لضمان امتثاله للقوانين واللوائح المحلية. يخلق هذا النهج كمية هائلة من العمل الإضافي، ويجعل مبادرات الذكاء الاصطناعي أكثر تكلفة ومتأخرة، ويضعف قدرة الشركات العالمية على تحقيق اقتصاديات الحجم ومشاركة الأدوات الفعالة مع المستخدمين في كل مكان.

然而، هناك بديل.对于 الشركات التي تبحث عن تسهيل نهجها، قد يكون الخيار الأفضل هو بناء إطار حوكمة للذكاء الاصطناعي الذي يأخذ في الاعتبار المبادئ الأخلاقية الشائعة عبر هذه المناطق المختلفة، مع ضمان أنهم يلبيوا معايير عالية في كل مكان من حيث حماية حريات الأفراد وخصوصيتهم وأمانهم. يمثل هذا الأسلوب طريقة قوية للشركات التي تعمل بالذكاء الاصطناعي لزيادة الثقة العامة في تقنيتهم، وتعزيز قاعدة عملائهم، وتحقيق الفوائد المحتملة للذكاء الاصطناعي للمجتمع.

ستة قيم رئيسية لحوكمة الذكاء الاصطناعي

对于 أي منظمة مهتمة بتبني نهج قائم على القيم لحوكمة الذكاء الاصطناعي، أوصي باستخدام القيم الستة الرئيسية التي نتبعها: المساءلة، والوضوح، والشفافية، والعدالة، والأمان، والطعن.

لقد اخترنا هذه القيم لأنها تغطي جميع مجالات دورة حياة نظام الذكاء الاصطناعي، وأنه تم ترميزها بالفعل في معايير دولية ووطنية مختلفة تتعلق بالذكاء الاصطناعي، مثل معيار المنظمة الدولية للتوحيد القياسي ISO/IEC 42001 و كتاب الدليل للذكاء الاصطناعي لحكومة المملكة المتحدة.

لنبدأ من الأعلى، المساءلة تعني معرفة من هو المسؤول عما في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. بدون ملكية واضحة، يمكن省略 التحكمات الحيوية لأن لا فرد أو فريق يحمل المسؤولية النهائية. يجب على المنظمات تعيين مالكين مسنين ومسمين – مثل مسؤوليهم الرئيسيين للذكاء الاصطناعي – لأنظمة الذكاء الاصطناعي ومراحلها الرئيسية، واستخدام نموذج حوكمة قائم على المخاطر، وتطبيق نفس الفحص لآلات الطرف الثالث كما هو الحال مع تلك التي تم تطويرها داخليًا. هذا يعني فهم شروط الموردين والقيود والمسؤوليات بنفس الجودة التي يفهمون بها أنظمتهم الخاصة.

تنقل المنظمة للتعاون والتنمية الاقتصادية إرشاداتها المتعلقة بتطوير المساءلة في الذكاء الاصطناعي هذا جيدًا، والتي توصي المنظمات بإنشاء “آليات لتضمين عملية إدارة مخاطر الذكاء الاصطناعي في حوكمة المنظمة الأوسع، وتعزيز ثقافة إدارة المخاطر داخل المنظمات وعبر سلسلة قيمة الذكاء الاصطناعي بأكملها”.

التالي هو الوضوح. يجب على المنظمات أن تكون قادرة على إظهار كيف يصل نظام الذكاء الاصطناعي إلى قرار. هذا يتطلب آليات لتسجيل وتتبع اتخاذ القرار، إلى جانب سجلات واضحة لتصميم النظام وبيانات التدريب وعمليات اتخاذ القرار. معًا، هذا يسمح للفرق بفهم سلالة المعلومات من بداية النظام حتى نشره.

العدالة تركز على ضمان أن أنظمة الذكاء الاصطناعي تنتج نتائج عادلة ولا تتكرر أو تعزز التحيزات الحالية. بدون فحص متعمد، يمكن لأنظمة أن تسبب ضررًا من خلال تقديم نتائج مائلة – مشكلة خاصة في المناطق ذات التأثير العالي مثل التوظيف والرعاية الصحية والعدالة الجنائية. للتحفيز على ذلك، يجب على المنظمات تنفيذ تدابير لكشف الانحياز، ومراجعة الإخراج بانتظام عبر المجموعات ذات الصلة، وتصميم إطارات حوكمة يمكن أن تستوعب متطلبات عدم التمييز المحلية. في الممارسة، هذا يعني بناء أنظمة لتحقيق أعلى معيار قانوني يتعرضون له، بما في ذلك التزامات بموجب قوانين مثل قانون المساواة لعام 2010 في المملكة المتحدة والميثاق الأوروبي للحقوق الأساسية.

الشفافية هي حول جلب الوضوح للمستخدمين والمنظمين. يجب على الناس أن يفهموا متى يتم استخدام الذكاء الاصطناعي، وما الدور الذي يلعبونه في اتخاذ القرار، وما هي البيانات التي تدعمه. نقطة انطلاق عملية هي معايير وثائقية موحدة عبر أنظمة الذكاء الاصطناعي، مدعومة بأدوات داخلية مثل بطاقات النموذج: وثائق قصيرة مقدمة مع نماذج التعلم الآلي التي توضح السياق الذي تهدف إلى استخدام النماذج فيه، و تفاصيل إجراءات تقييم الأداء، ومعلومات أخرى ذات صلة. بدون شفافية، لا يمكن للمستخدمين الطعن في النتائج غير العادلة، ولا يمكن للمنظمين أن يتدخلوا بفعالية، وقد يتم إخفاء الآثار الضارة تحت السجادة.

الأمان يتضمن حماية أنظمة الذكاء الاصطناعي من الوصول غير المصرح به أو التلاعب أو السلوك غير المقصود. إذا كان الأمان ضعيفًا، يمكن لأنظمة الذكاء الاصطناعي أن تضع المنظمات والمستخدمين وبياناتهم في خطر، مما يتعرضون لخسارة مالية وتسمعة سيئة. يجب على المنظمات تحديد عتبات الأداء والدقة، واختبار الأنظمة في ظروف واقعية، ودمج اختبار الفريق الأحمر لتحديد الثغرات الأمنية.

أخيرًا، الطعن يضمن أن الناس لديهم وسيلة واضحة وممكنة للطعن في أو استئناف القرارات التي يتحكم فيها الذكاء الاصطناعي. بدون ذلك، لا يملك المستخدمون المتأثرون أي ملاذ، وقد لا يتم طرح أو حل المشاكل أبدًا. يجب على المنظمات توفير قنوات تقارير في نقطة الاستخدام، وتعيين أصحاب كبيرين لإدارة الشكاوى، وضمان أن الأنظمة يمكن أن تكون معلقة أو مراجعة أو تحديثها عند الضرورة.

ما هي فوائد الإطار القائم على القيم؟

هناك两个 سبب قوي لاعتماد نهج قائم على القيم لحوكمة الذكاء الاصطناعي. أولًا، لأن الذين يبنيون ونشر أنظمة الذكاء الاصطناعي لديهم مسؤولية أخلاقية تجاه الأشخاص والمنظمات المتأثرة بهم؛ وثانيًا، لأن هذا هو نهج أكثر فعالية لتحقيق فوائد الذكاء الاصطناعي المpromised في الممارسة.

مستخدمو أنظمة الذكاء الاصطناعي، سواء كانوا شركات أو أفراد، يضعون ثقة ضمنية في منشئيها بعدم إساءة استخدام بياناتهم الشخصية أو تعرضهم لمخاطر غير ضرورية. عندما تنتهك المنظمات هذه الثقة، يصبح من الصعب عليها الاحتفاظ بهذه المستخدمين. في النهاية، ما لم يثق الناس في أنظمة الذكاء الاصطناعي، ويرى الفوائد الواضحة التي تقدمها، لن يوافقوا على إدخالها. هذا سوف يؤدي إلى مزيد من الانقسام الاجتماعي والاقتصادي، وسنفقد العديد من الفرص التي تقدمها هذه التكنولوجيا.

من ناحية أخرى، يمكن للشركات التي تطبق إطارًا قائمًا على القيم في كل مكان – بما في ذلك المناطق التي تتمتع بمتطلبات حوكمة أكثر مرونة – أن تثبت للعملاء والمستثمرين والمنظمين أنهم يلتزمون بمعيار أعلى مما تتطلبه الامتثال الأساسي. هذا يبني الثقة والانخراط والنجاح التجاري في النهاية.

حوكمة الذكاء الاصطناعي القوية هي منشئ قيمة، وليست عبئًا على الامتثال. إنها تمكن الأعمال من إطلاق منتجات جديدة إلى السوق بسرعة أكبر، وتقليل تعرضهم للمخاطر، وتنفيذ حلولهم عبر سوق متعددة بثقة.

تقرير “حالة الذكاء الاصطناعي” من مكينسي وجد أن “إشراف الرئيس التنفيذي على حوكمة الذكاء الاصطناعي … هو عنصر يرتبط أكثر مع تأثير أعلى على القيمة الأساسية للتنظيم من استخدام الذكاء الاصطناعي العام،” مما يؤكد الفوائد التجارية لهذا النهج. في هذا الصدد، يعتبر بناء إطارات أخلاقية قوية في أنظمة الذكاء الاصطناعي مصلحة خودية مُتنورة.

خارج كل هذا، ومع ذلك، إنها ببساطة الشيء الصحيح الذي يجب فعله. لقد بنينا سياستنا الأخلاقية العالمية للذكاء الاصطناعي حول نفس المبدأ: أن التكنولوجيا المتقدمة يجب أن تخدم الناس والمجتمع، وليس العكس. هذا يعكس رؤية أوسع لمجتمع 5.0: نموذج مبتكر يركز على الإنسان، يهدف إلى الجمع بين التقدم الاقتصادي وحل التحديات الاجتماعية.

إذا كان التكنولوجيا الناشئة مثل الذكاء الاصطناعي ستسهم في بناء مجتمع أكثر سعادة وتوافقًا، فيجب أن يتم بناؤها على أسس أخلاقية قوية. هذا يبدأ بالتركيز ليس فقط على المعايير التي يتعين على المنظمات تحقيقها، ولكن أيضًا على المعايير التي يرغبون في تحقيقها.

Isabella Grandi هي مديرة استراتيجية البيانات والذكاء الاصطناعي والحوكمة والأخلاقيات في NTT DATA UK&I. وهي تشترك مع المنظمات لتشكيل وتسليم الذكاء الاصطناعي والحوكمة المسؤولة التي تنقلهم من حالتهم الحالية إلى نموذج تشغيل أكثر نضجًا وموجهًا بالبيانات.

عملها يركز على دمج الممارسة الأخلاقية وإدارة مخاطر الذكاء الاصطناعي الصلبة في كيفية تصميم المنظمات وتطوير الذكاء الاصطناعي، مما يضمن استخدام مسؤول في هياكل اتخاذ القرارات والعمليات اليومية.