رطم نافرينا سينغ ، الرئيس التنفيذي ومؤسس Credo AI - سلسلة مقابلات - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

مقابلات

نافرينا سينغ ، الرئيس التنفيذي ومؤسس Credo AI - سلسلة مقابلات

mm
تحديث on

نافرينا سينغ هو الرئيس التنفيذي ومؤسس منظمة العفو الدولية Credo، شركة تصمم أول منصة SaaS شاملة لحوكمة الذكاء الاصطناعي والتي تمكّن الشركات والأفراد من فهم وتقديم ذكاء اصطناعي موثوق به وأخلاقي بشكل أفضل ، والبقاء في طليعة اللوائح والسياسات الجديدة وإنشاء سجل ذكاء اصطناعي قابل للتدقيق وشفاف في جميع أنحاء المنظمة. تعمل الشركة في التخفي وتقوم بهدوء ببناء محفظة عملاء رائعة تضم واحدة من أكبر المقاولين الحكوميين وشركات الخدمات المالية في العالم ، من بين العلامات التجارية الأخرى المدرجة في قائمة Fortune 100.

نشأت في بلدة صغيرة في الهند ذات بدايات متواضعة ، كيف وجدت نفسك منجذبًا للهندسة ومجال الذكاء الاصطناعي؟

أنا من عائلة من الطبقة المتوسطة. كان والدي في الجيش لمدة أربعة عقود وكانت والدتي معلمة تحولت إلى مصممة أزياء. منذ سن مبكرة ، شجعوا دائمًا إحساسي بالفضول ، وحب الاكتشافات العلمية ، وقدموا لي مكانًا آمنًا لاستكشاف "ماذا لو".

عندما نشأت في الهند ، لم تكن النساء تُمنح العديد من الفرص مثل الرجال. تم بالفعل اتخاذ الكثير من القرارات للفتاة ، بناءً على ما هو مقبول من قبل المجتمع. الطريقة الوحيدة للانفصال عنك وتوفير حياة كريمة لعائلتك كانت من خلال التعليم.

بعد التخرج من المدرسة الثانوية ، امتلكت أول جهاز كمبيوتر لي والذي كان نافذتي على العالم. كنت حقًا في الأجهزة ، وقضيت ساعات عبر الإنترنت في تعلم كيفية تفكيك اللوحات الأم ، وبناء تطبيقات الروبوتات ، وتعلم البرمجة ، وإعادة عمل الكهرباء في منزلي (yikes!) وغير ذلك الكثير. أصبحت الهندسة مساحتي الآمنة ، حيث يمكنني تجربة واستكشاف وبناء وتجربة عالم أردت أن أكون جزءًا منه من خلال اختراعاتي. لقد ألهمتني وتحمست كيف يمكن أن تكون التكنولوجيا أداة قوية لإحداث التغيير ، خاصة بالنسبة للنساء.

كبرت ، كانت إمكانياتي محدودة ، لكن الاحتمالات لم تكن كذلك. لطالما حلمت بالقدوم إلى الولايات المتحدة لبناء أساس أقوى في التكنولوجيا لحل أكبر التحديات التي تواجه البشرية. لقد هاجرت إلى هنا في عام 2001 لمواصلة رحلتي الهندسية في جامعة ويسكونسن ماديسون.

على مدار ما يقرب من عقدين من عملي في الهندسة ، كان لي امتياز العمل عبر العديد من التقنيات الرائدة ، من الهاتف المحمول إلى الواقع المعزز.

في عام 2011، بدأت في استكشاف الذكاء الاصطناعي لبناء أعمال ناشئة جديدة في شركة كوالكوم. لقد أمضيت أيضًا بعض الوقت في بناء الأعمال والتطبيقات في مجال الذكاء الاصطناعي عبر الكلام والرؤية ومعالجة اللغات الطبيعية في Microsoft وQualcomm على مدار العقد الماضي. عندما تعلمت المزيد عن الذكاء الاصطناعي والتعلم الآلي، أصبح من الواضح أن هذه التكنولوجيا الرائدة سوف تعطل حياتنا بشكل كبير بما يتجاوز ما يمكننا تخيله.

جعلني بناء الذكاء الاصطناعي على نطاق المؤسسة أدرك أيضًا كيف يمكن للتكنولوجيا أن تلحق ضررًا وتؤذي شعبنا ومجتمعاتنا ، إذا تركت دون رادع. نحن ، كقادة ، يجب أن نتحمل المسؤولية القصوى عن التقنيات التي نبنيها. يجب أن نكون استباقيين في تعظيم فوائدها للبشرية وتقليل مخاطرها. بعد كل شيء "ما نصنعه يجعلنا" لذا فإن البناء بمسؤولية أمر بالغ الأهمية ، وقد ألهمني المرحلة التالية من مسيرتي المهنية في بناء حوكمة الذكاء الاصطناعي.

متى بدأت التفكير بجدية في حوكمة الذكاء الاصطناعي لأول مرة؟

بينما كنت رئيس قسم الابتكار في Qualcomm ، كنا نستكشف الاحتمالات التي يمكن أن يوفرها الذكاء الاصطناعي لشركاتنا الناشئة. ركز عملنا الأولي على الروبوتات التعاونية التي تم استخدامها في سلسلة التوريد. كان هذا أول تعرض لي للمخاطر "الحقيقية" للذكاء الاصطناعي ، خاصة فيما يتعلق بالسلامة الجسدية للبشر الذين كانوا يعملون جنبًا إلى جنب مع أنظمة الروبوتات هذه.

خلال هذا الوقت ، أمضينا وقتًا طويلاً مع الشركات الناشئة ، مثل Soul Machines ، وتعلمنا حالات استخدام جديدة وإيجاد طرق للشراكة معها لتسريع عملنا. أصدرت Soul Machines نسخة جديدة من الصورة الرمزية للأطفال ، "Baby X". إن مشاهدة هذا الطفل المدعوم بالشبكة العصبية ، والتعلم بنشاط من العالم من حوله ، جعلني أتوقف مؤقتًا وأفكر في العواقب غير المقصودة لهذه التكنولوجيا. ولدت ابنتي ضياء في نفس الوقت تقريبًا ، وقد أطلقنا عليها باعتزاز اسم طفلها "Z" بعد أن أطلقنا عليها اسم Soul Machines Baby "X". لقد تحدثت عن هذا كثيرًا بما في ذلك في Women In Product Keynote في عام 2019.

كانت رحلات التعلم لدى Baby X و Baby Z متشابهة بشكل مخيف! عندما كانت ضياء تكبر ، كنا نزودها بالمفردات والأدوات الأولية للتعلم. بمرور الوقت ، بدأت في فهم العالم وتجميع الأشياء بنفسها. كان الطفل X ، الطفل الشبكي العصبي ، يتعلم بالمثل من خلال مستشعرات الرؤية والتعرف على الكلام ، وسرعان ما يبني فهمًا عميقًا للعالم البشري.

لقد أوضحت لي لحظات الذكاء الاصطناعي المبكرة هذه أنه من الضروري إيجاد طرق لإدارة المخاطر ووضع حواجز حماية فعالة حول هذه التكنولوجيا القوية لضمان نشرها إلى الأبد.

هل يمكنك مشاركة قصة التكوين وراء Credo AI؟

بعد Qualcomm ، تم تعييني لقيادة تسويق تقنيات الذكاء الاصطناعي في Microsoft في مجموعة تطوير الأعمال ، وبالتالي في مجموعة المنتجات. خلال فترة ولايتي ، كنت محظوظًا للعمل على مجموعة من تقنيات الذكاء الاصطناعي مع تطبيقات في حالات الاستخدام من الذكاء الاصطناعي للمحادثة إلى الذكاء التعاقدي ، ومن عمليات التفتيش المرئية إلى اكتشاف المنتج المدعوم بالكلام.

ومع ذلك ، فإن بذرة حوكمة الذكاء الاصطناعي المزروعة في شركة كوالكوم استمرت في النمو حيث واصلت مشاهدة "عجز الرقابة" المتزايد في تطوير تقنيات الذكاء الاصطناعي. بصفتنا قائد منتج يعمل مع فريق علوم وهندسة البيانات ، فقد تحمسنا لبناء تطبيق ذكاء اصطناعي عالي الأداء مدعوم بالتعلم الآلي ونشره بسرعة في السوق.

لقد اعتبرنا الامتثال والحوكمة بمثابة فحص بوابة يبطئ وتيرة الابتكار. ومع ذلك ، فإن مخاوفي المتزايدة بشأن عجز الحوكمة بين المهنيين التقنيين والرقابة في مجال المخاطر والامتثال والتدقيق ، حفزتني على مواصلة استكشاف التحديات في تحقيق حوكمة الذكاء الاصطناعي.

دفعتني جميع الأسئلة التي لم تتم الإجابة عنها حول حوكمة الذكاء الاصطناعي إلى البحث عن إجابات. لذلك بدأت في وضع الأساس لمنظمة غير ربحية تسمى MERAT (سوق أدوات الذكاء الاصطناعي الأخلاقية والمسؤولة) بهدف إنشاء نظام بيئي للشركات الناشئة والألفينيات العالمية التي تركز على التطوير المسؤول للذكاء الاصطناعي.

من خلال التجارب المبكرة في MERAT ، أصبح من الواضح أنه لم تكن هناك شركات ناشئة تمكن أدوات أصحاب المصلحة المتعددين من إدارة الحوكمة الشاملة لتطبيقات الذكاء الاصطناعي والتعلم الآلي - حتى Credo AI. كانت هذه الفجوة فرصتي لتحقيق مهمة توجيه الذكاء الاصطناعي عن قصد. تم التحقق من صحة فرضيتي باستمرار بأن الحدود التالية لثورة الذكاء الاصطناعي ستوجهها الحوكمة. ستظهر الشركات التي تتبنى الحوكمة كرائدة في العلامات التجارية الموثوقة.

اتصل بي صندوق الذكاء الاصطناعي ، وهو حاضنة أسسها أندرو نج ، خبير الذكاء الاصطناعي الشهير. ركز صندوق الذكاء الاصطناعي على نفس موضوعات قابلية تدقيق الذكاء الاصطناعي والحوكمة التي استهلكتها على مدار العقد الماضي.

تأسست Credo AI في 28 فبرايرth، 2020 ، بتمويل من صندوق الذكاء الاصطناعي.

Credo تعني "مجموعة من القيم التي توجه أفعالك". مع Credo AI ، تتمثل رؤيتنا في تمكين الشركات من إنشاء ذكاء اصطناعي وفقًا لأعلى المعايير الأخلاقية.

في باقة مقابلة سابقة، لقد ناقشت كيف سيتم الوثوق بالعلامات التجارية في المستقبل ليس "فقط" بناءً على كيفية بناء ونشر الذكاء الاصطناعي ، ولكن على كيفية توسيع نطاق الذكاء الاصطناعي بحيث يكون في خدمة الإنسانية. هل يمكن توضيح ذلك؟

الذكاء الاصطناعي هو أحد التقنيات المتغيرة للعبة في هذا القرن ويوفر فرصًا تحويلية للاقتصاد والمجتمع. إنها في طريقها للمساهمة بنحو 16 تريليون دولار في الاقتصاد العالمي بحلول عام 2030.

ومع ذلك ، فقد سلطت السنوات العديدة الماضية الضوء على التهديدات الرئيسية للذكاء الاصطناعي (ولا ، إنه ليس الروبوتات المسيطرة!) هنا بالفعل. على سبيل المثال ، يمكن أن تؤدي الخوارزميات القضائية المحسّنة للحد الأدنى من العودة إلى الإجرام (الانتكاس في السلوك الإجرامي) إلى التحيز وتنفي إطلاق السراح المشروط لمن يستحقه.

يمكن أن تؤدي الخوارزميات الاجتماعية المحسّنة للمشاركة إلى تقسيم الأمة.

يمكن أن تكون الخوارزميات غير العادلة هي سبب عدم حصولك على وظيفة أو القبول في الجامعة.

كلما منحنا المزيد من الاستقلالية لأدواتنا ، اتسع نطاق العواقب غير المقصودة. النطاق الاستثنائي يولد تأثيرًا غير عادي ، ولكن ليس دائمًا التأثير الذي ننوي (أكتب عن هذا في بيان Credo AI).

أتوقع أن الشركات التي تستثمر في حوكمة الذكاء الاصطناعي لمساعدتها على بناء التكنولوجيا بمسؤولية والالتزام بالاستخدام الأخلاقي للبيانات ، ستكون قادرة على خلق الثقة بين أصحاب المصلحة - العملاء والمستهلكين والمستثمرين والموظفين وغيرهم.

كيف يساعد الذكاء الاصطناعي Credo في إبقاء الشركات خاضعة للمساءلة؟

المساءلة تعني التزامًا بقبول المسؤولية عن أفعال الفرد. في سياق تطوير الذكاء الاصطناعي ونشره ، يعني هذا أن المؤسسات لا تحتاج فقط إلى التوافق مع "الشكل الجيد بالنسبة لها" ، بل يجب أن تتخذ خطوات مقصودة لإظهار الإجراءات بشأن تلك الأهداف المتوافقة وتحمل المسؤولية عن النتائج.

تهدف Credo AI إلى أن تكون شيربا للمؤسسات في مبادراتها الأخلاقية والمسؤولة للذكاء الاصطناعي لمحاسبتها أمام أصحاب المصلحة المتنوعين: المستخدمين والموظفين والمنظمين والمدققين والمستثمرين والمديرين التنفيذيين وغيرهم. ومن ثم ، فقد ابتكرت Credo AI حلاً شاملاً ومستمرًا وقائمًا على السياق في الوقت الفعلي لتقديم ذكاء اصطناعي أخلاقي ومسؤول على نطاق واسع.

يُعد بناء المساءلة والثقة في الذكاء الاصطناعي عملية ديناميكية. يجب على المنظمات التوافق مع قيم المؤسسة ، وتقنين تلك القيم ، وبناءها في بنيتها التحتية التنظيمية ، ومراقبة التأثير وتكرار العملية بأصوات متنوعة تقدم مدخلات في كل مرحلة. تمكن Credo AI هذه المساءلة من خلال حل شامل في الوقت الفعلي لإدارة الامتثال وقياس المخاطر لعمليات نشر الذكاء الاصطناعي على نطاق واسع.

باستخدام حل Credo AI للحوكمة ، يمكن للشركات أن:

  • التوافق مع متطلبات الحوكمة لحالات استخدام الذكاء الاصطناعي ونماذجها ، مع حزم السياسات القابلة للتخصيص وأدوات دعم القرار لاختيار مقاييس تقييم النموذج.
  • تقييم واستجواب البيانات ونماذج ML مقابل تلك الأهداف المتوافقة
  • تحليل المواصفات الفنية إلى تأثير مخاطر قابل للتنفيذ على الأعمال في كل مرحلة من مراحل تطوير النموذج ونشره ، حتى تتمكن من اكتشاف مشكلات الحوكمة وإصلاحها قبل أن تصبح مشكلات ضخمة

من خلال تسجيل القرارات والإجراءات في كل نقطة ، تلتقط Credo AI أصل القرارات التي دخلت في إنشاء النماذج كدليل. سيكون هذا الدليل بمثابة سجل يتم مشاركته داخليًا مع أصحاب المصلحة في المؤسسة وخارجيًا مع المراجعين الذين يبني الثقة في نوايا الذكاء الاصطناعي.

سيساعد هذا الدليل فرق التطوير على التنبؤ بالعواقب غير المقصودة ومنعها ، كما سيوحد الطريقة التي نقيم بها فعالية ومصداقية نماذج الذكاء الاصطناعي.

نحن في بدايات تمكين حوكمة الذكاء الاصطناعي من خلال التقييمات الشاملة والضمانات ونحن متحمسون للعمل مع المزيد من المؤسسات لتعزيز المساءلة.

كيف يساعد الذكاء الاصطناعي Credo الشركات على التحول بعيدًا عن حوكمة الذكاء الاصطناعي؟

في عالم اليوم ، هناك نقص في الوضوح حول ماهية الذكاء الاصطناعي "المسؤول" و "الأخلاقي" و "الجدير بالثقة" ، وكيف يمكن للمؤسسات تحقيق ذلك. نحن نساعد في إعادة صياغة هذا السؤال الرئيسي للمؤسسات ، باستخدام منصة Credo AI SaaS لإثبات "اقتصاديات الأخلاق".

مع Credo AI ، لا تستطيع الشركات تقديم ذكاء اصطناعي عادل ومتوافق وقابل للتدقيق فحسب ، بل إنها قادرة على بناء ثقة العملاء.

يمكن أن يؤدي بناء ثقة المستهلك إلى توسيع قاعدة عملاء الشركة وفتح المزيد من المبيعات. على سبيل المثال ، يمكن للشركات تقديم أفضل تجربة ممكنة للعملاء باستخدام الذكاء الاصطناعي الأخلاقي في روبوتات المحادثة لخدمة العملاء ، أو استخدام الذكاء الاصطناعي بشكل مسؤول لفهم نشاط المستخدم واقتراح محتوى أو منتجات إضافية لهم. بعد ذلك ، يقدم العملاء الراضون للغاية أفضل الإعلانات من خلال مشاركة تجربتهم مع الأصدقاء والعائلة.

بالإضافة إلى ذلك ، يمكن للمؤسسة أيضًا معرفة كيف يمكن للتعاون عبر الوظائف الفنية والإشرافية أن يساعدهم في توفير التكلفة بسبب وقت أسرع للامتثال وإدارة المخاطر المستنيرة والعلامة التجارية المنخفضة والمخاطر التنظيمية. نحن نساعد المؤسسات على نشر الذكاء الاصطناعي الأخلاقي من خلال بناء جسر بين المقاييس التقنية ونتائج الأعمال الملموسة. نظرًا لأن المزيد والمزيد من الناس يدركون ، فإن الدفاع عن الذكاء الاصطناعي الأخلاقي ينطوي على أكثر بكثير من مجرد تحديد مربع "الامتثال التنظيمي". لكن لديها القدرة على تقديم أكثر من مجرد مساهمة في عالم أكثر إنصافًا ، والتي ستكون نتيجة جديرة بالاهتمام في حد ذاتها.

عندما تتمسك الشركة بمعايير أخلاقية عالية ، يمكنها أن تتوقع نتائج أعمال واقعية ، مثل زيادة الإيرادات. لقد كان تحويل المنظور من مفهوم "ناعم" مجرد إلى قرار عمل موضوعي طريقة أساسية بالنسبة لنا للمساعدة في وضع حوكمة الذكاء الاصطناعي كجزء هام من المحرك الاقتصادي والاجتماعي للشركة.

في الآونة الأخيرة ، أنشأت إدارة بايدن اللجنة الاستشارية الوطنية للذكاء الاصطناعي. من وجهة نظرك ، ما هي الآثار المترتبة على ذلك بالنسبة لشركات الذكاء الاصطناعي؟

تعمل الحكومات على مستوى العالم بكامل قوتها على تنظيم الذكاء الاصطناعي ، وتحتاج الشركات إلى الاستعداد. يُعد إنشاء إدارة بايدن المدروس للجنة الاستشارية الوطنية للذكاء الاصطناعي والاستثمارات في البيت الأبيض OSTP خطوة أولى جيدة لاتخاذ إجراءات في المناقشات حول قانون الحقوق التي تحكم أنظمة الذكاء الاصطناعي. ومع ذلك ، يجب القيام بالكثير من العمل لإدراك ما سيعنيه الذكاء الاصطناعي المسؤول لبلدنا واقتصادنا.

أعتقد أن عام 2022 مؤهل ليكون عام العمل للذكاء الاصطناعي المسؤول. إنها دعوة إيقاظ للمؤسسات التي تتطلع إلى تنفيذ أو تعزيز إطار العمل الأخلاقي للذكاء الاصطناعي. حان الوقت الآن للشركات لتقييم إطار عملها الحالي للفجوات ، أو بالنسبة للشركات التي تفتقر إلى نهج ، لتنفيذ إطار عمل قوي للذكاء الاصطناعي الجدير بالثقة لإعدادها للنجاح في عصر الذكاء الاصطناعي.

يجب أن نتوقع ظهور المزيد من اللوائح الصارمة واللينة. بالإضافة إلى إجراءات البيت الأبيض ، هناك الكثير من الزخم القادم من صانعي السياسات والوكالات الأخرى ، مثل مشروع قانون المساءلة الخوارزمية الصادر عن مجلس الشيوخ ، وتوجيهات لجنة التجارة الفيدرالية (FTC) حول التحيز في الذكاء الاصطناعي ، والمزيد.

إذا تقدمنا ​​بسرعة إلى المستقبل ، فما مدى أهمية أخلاقيات الذكاء الاصطناعي وحوكمة الذكاء الاصطناعي في غضون خمس سنوات؟

نحن في بدايات حوكمة الذكاء الاصطناعي. للتأكيد على مدى أهمية حوكمة الذكاء الاصطناعي ، إليك بعض توقعاتي للسنوات القليلة القادمة:

  • ستصبح الحوكمة الأخلاقية للذكاء الاصطناعي على رأس أولويات المؤسسة

تستمر الشركات في الاستثمار وجني فوائد استخدام الذكاء الاصطناعي في أعمالها. توقعت شركة IDC إنفاق 340 مليار دولار على الذكاء الاصطناعي في عام 2022. وبدون الحوكمة ، ستحجم الشركات عن الاستثمار في الذكاء الاصطناعي بسبب المخاوف بشأن التحيز والأمان والدقة والامتثال لهذه الأنظمة.

بدون الثقة ، سيحجم المستهلكون أيضًا عن قبول المنتجات القائمة على الذكاء الاصطناعي أو مشاركة البيانات لبناء هذه الأنظمة. على مدى السنوات الخمس المقبلة ، ستصبح الحوكمة الأخلاقية للذكاء الاصطناعي من أولويات مجلس الإدارة ومقياسًا مهمًا يتعين على الشركات الإفصاح عنه والإبلاغ عنه لبناء الثقة بين أصحاب المصلحة.

  • ستظهر فئات وظائف تقنية اجتماعية جديدة داخل المؤسسة

نحن نرى بالفعل مؤسسات تقدم الأخلاقيات تستثمر بشكل كبير في إثبات تطورها في المستقبل لضمان تطبيقات ذكاء اصطناعي عادلة ومتوافقة وقابلة للتدقيق.

لقيادة الذكاء الاصطناعي ، ستحتاج الشركات إلى زيادة تسريع التعلم عن المشهد التنظيمي للذكاء الاصطناعي وتنفيذ هياكل المساءلة على نطاق واسع. مع تطور المجال الناشئ لتطبيق الذكاء الاصطناعي الأخلاقي ، يمكن أن تنشأ فئة وظيفية اجتماعية تقنية جديدة لتسهيل هذه المحادثات وتولي المسؤولية في هذا المجال. يمكن أن يعمل هذا المكون الجديد للقوى العاملة كوسطاء بين التقنية والإشراف ، مما يساعد على تطوير معايير وأهداف مشتركة.

  • ستتطلب التجارب الجديدة المدعومة بالذكاء الاصطناعي حوكمة أكثر صرامة

تعد إدارة النتائج المقصودة وغير المقصودة للذكاء الاصطناعي أمرًا بالغ الأهمية ، خاصةً ونحن ندخل عالم Metaverse و web3. توجد مخاطر الذكاء الاصطناعي في العالم الحقيقي والعالم الافتراضي ، ولكن يتم تضخيمها بشكل أكبر في الأخير.

من خلال الغوص في رأس Metaverse أولاً مع الافتقار إلى إشراف الذكاء الاصطناعي ، تعرض المؤسسات عملائها للخطر لتحديات مثل سرقة الهوية والاحتيال. من الأهمية بمكان أن يتم حل مشكلات الذكاء الاصطناعي والحوكمة في العالم الحقيقي الآن من أجل الحفاظ على سلامة المستهلكين في Metaverse.

  • ستظهر أنظمة بيئية جديدة في الحوكمة الأخلاقية للذكاء الاصطناعي

لقد أيقظ العالم فكرة أن حوكمة الذكاء الاصطناعي تمثل لبنة البناء الأساسية لتفعيل الذكاء الاصطناعي المسؤول. على مدى السنوات العديدة القادمة ، سنشهد ظهور سوق تنافسي وديناميكي لمقدمي الخدمات لتوفير الأدوات والخدمات والتعليم والقدرات الأخرى لدعم هذه الحاجة الهائلة.

بالإضافة إلى ذلك ، سنرى أيضًا توحيدًا وتعزيزًا لمنصات MLops و GRC الحالية ، لتوفير إمكانات الحوكمة والتقييم للذكاء الاصطناعي.

هل هناك أي شيء آخر تود مشاركته حول Credo AI؟

تعد الحوكمة الأخلاقية للذكاء الاصطناعي استثمارًا مثبتًا في المستقبل ولا يمكنك تحمله ليس ، واليوم هو أفضل يوم للبدء.

شكرًا لك على المقابلة التفصيلية ولمشاركة جميع أفكارك المتعلقة بحوكمة الذكاء الاصطناعي وأخلاقياته ، يجب على القراء الذين يرغبون في معرفة المزيد زيارة منظمة العفو الدولية Credo.