Connect with us

ديفيد ماهر، الرئيس التنفيذي للتقنية في إنترترست – سلسلة المقابلات

مقابلات

ديفيد ماهر، الرئيس التنفيذي للتقنية في إنترترست – سلسلة المقابلات

mm

ديفيد ماهر يخدم كنائب الرئيس التنفيذي للتقنية ورئيس قسم التكنولوجيا في إنترترست. مع أكثر من 30 عامًا من الخبرة في الأنظمة الموزعة الموثوقة والأنظمة الآمنة وإدارة المخاطر، قاد ديف جهود البحث والتطوير وشغل مناصب قيادية رئيسية في جميع فروع الشركة. كان رئيسًا سابقًا لشركة Seacert Corporation، وهي سلطة شهادات للوسائط الرقمية وأجهزة إنترنت الأشياء، ورئيس شركة whiteCryption Corporation، وهي مطور لأنظمة الدفاع عن البرمجيات. كما شغل منصب نائب رئيس منظمة إدارة الثقة مارلين (MTMO)، التي تشرف على النظام الإلكتروني الوحيد لإدارة حقوق النشر الرقمية.

إنترترست طور ابتكارات تمكن الأنظمة التشغيلية الموزعة من تأمين وحكم البيانات والعمليات فوق الشبكات المفتوحة، مما أدى إلى براءة اختراع أساسية في الحوسبة الموزعة الموثوقة.

في الأصل، كانت إنترترست جذرها في البحث، وتطورت إلى شركة تركز على المنتجات وتقدم خدمات حوسبة موثوقة توحد عمليات الأجهزة والبيانات، خاصة لأجهزة إنترنت الأشياء والذكاء الاصطناعي. تشمل أسواقها توزيع الوسائط، وتحديد هوية الجهاز والتحقق، وإدارة الطاقة الرقمية، والتحليلات، وأمان تخزين السحابة.

كيف يمكننا إغلاق فجوة الثقة في الذكاء الاصطناعي ومعالجة المخاوف المتزايدة بشأن سلامة الذكاء الاصطناعي وموثوقيته؟

الشفافية هي أهم qualité أعتقد أنها سوف تساعد في معالجة المخاوف المتزايدة حول الذكاء الاصطناعي. الشفافية تشمل الميزات التي تساعد المستهلكين والتقنيين على فهم الآليات التي تعمل بالذكاء الاصطناعي، ونوعية سلالتها: كيف يتم تدريب نموذج الذكاء الاصطناعي، ما هي الحواجز التي توجد، ما هي السياسات التي تم تطبيقها في تطوير النموذج، وما هي الضمانات الأخرى الموجودة لسلامة وأمان آلية معينة. مع زيادة الشفافية، سوف نتمكن من معالجة المخاطر والقضايا الحقيقية وعدم الانحراف كثيرًا عن المخاوف والافتراضات غير العقلانية.

ما هو دور مصادقة البيانات الوصفية في ضمان موثوقية مخرجات الذكاء الاصطناعي؟

مصادقة البيانات الوصفية تساعد على زيادة ثقتنا بأن الضمانات المتعلقة بنموذج الذكاء الاصطناعي أو آليات أخرى موثوقة. بطاقة نموذج الذكاء الاصطناعي هي مثال على مجموعة من البيانات الوصفية التي يمكن أن تساعد في تقييم استخدام آلية الذكاء الاصطناعي (نموذج، وكيل، إلخ.) لغرض معين. نحن بحاجة إلى وضع معايير للوضوح والكامل لبطاقات النماذج مع معايير للقياسات الكمية والتصريحات المصدق عليها حول الأداء والتحيز وخصائص بيانات التدريب، إلخ.

كيف يمكن للمنظمات التخفيف من مخاطر انحياز الذكاء الاصطناعي والهلوسة في نماذج اللغة الكبيرة (LLMs)?

التصفية هي نهج عام لمعالجة هذه والمخاطر الأخرى خلال تطوير النماذج وقبل إطلاقها. في الأصل، تم استخدام هذا النهج لتقييم الأنظمة الآمنة، وهو الآن يصبح معيارًا للأنظمة القائمة على الذكاء الاصطناعي. إنه نهج 系统ي لإدارة المخاطر يمكن أن يشمل دورة الحياة الكاملة للنظام من التطوير الأولي إلى النشر الميداني، ويشمل سلسلة التوريد الكاملة للتطوير. özellikle حرج هو تصنيف ومصادقة بيانات التدريب المستخدمة لنموذج معين.

ما هي الخطوات التي يمكن للشركات اتخاذها لإنشاء شفافية في أنظمة الذكاء الاصطناعي وتقليل المخاطر المرتبطة بمشكلة “الصندوق الأسود”؟

فهم كيف سيستخدم الشركة النموذج وما هي أنواع المسؤوليات التي قد تكون لديها في النشر، سواء للاستخدام الداخلي أو للاستخدام من قبل العملاء، مباشرة أو غير مباشرة. ثم، فهم ما أسميه سلالة آليات الذكاء الاصطناعي التي سيتم نشرها، بما في ذلك التصريحات على بطاقة النموذج، ونتائج تجارب الفريق الأحمر، والتحليلات التفاضلية على استخدام الشركة المحدد، ما تم تقييمه بشكل رسمي، وما كانت تجارب الآخرين. الاختبار الداخلي باستخدام خطة اختبار شاملة في بيئة واقعية مطلوب بالضرورة. أفضل الممارسات تتطور في هذا المجال الناشئ، لذلك من المهم مواكبة التطورات.

كيف يمكن تصميم أنظمة الذكاء الاصطناعي مع مراعاة الإرشادات الأخلاقية، وما هي التحديات في تحقيق ذلك عبر مختلف الصناعات؟

هذا هو مجال البحث، ويطالب العديد من الناس بأن مفهوم الأخلاقيات والإصدارات الحالية من الذكاء الاصطناعي غير متوافقين منذ أن تكون الأخلاقيات مبنية على المفاهيم، والآليات الذكاء الاصطناعي هي في الغالب مدفوعة بالبيانات. على سبيل المثال، القواعد البسيطة التي يفهمها البشر، مثل “لا تخدع”، من الصعب ضمانها. ومع ذلك، يمكن للتحليل العناية للاستفادة من التفاعلات والصراعات بين الأهداف في التعلم القائم على الأهداف، واستبعاد البيانات المشبوهة والمعلومات الخاطئة، وبناء القواعد التي تتطلب استخدام مرشحات الإخراج التي تفرض الحواجز وتختبر انتهاكات المبادئ الأخلاقية مثل الدعاية أو التعبير عن استخدام العنف في محتوى الإخراج يجب أن يتم النظر فيها. بشكل مماثل، يمكن أن يساعد الاختبار الصارم للتحيز في جعل النموذج أكثر مطابقة للمبادئ الأخلاقية. مرة أخرى، الكثير من هذا يمكن أن يكون концептуًا، لذلك يجب اعطاء اهتمام لاختبار الآثار الناجمة عن نهج معين منذ أن الآلية الذكاء الاصطناعي لن “تفهم” الإرشادات بالطريقة التي يفهمها البشر.

ما هي المخاطر والتحديات الرئيسية التي تواجهها الذكاء الاصطناعي في المستقبل، خاصة مع زيادة التكامل مع أنظمة إنترنت الأشياء؟

نريد استخدام الذكاء الاصطناعي لتأتمتة الأنظمة التي تحسن من عمليات البنية التحتية الحيوية. على سبيل المثال، نعلم أننا يمكننا تحسين توزيع الطاقة واستخدامها باستخدام محطات الطاقة الافتراضية، التي تنسق الآلاف من عناصر الإنتاج والتخزين والاستخدام. هذا هو عملي فقط مع التأتمتة الكبيرة واستخدام الذكاء الاصطناعي لمساعدة في اتخاذ القرارات الدقيقة. سوف تشمل الأنظمة وكلاء مع أهداف تحسين متضاربة (على سبيل المثال، لمصلحة المستهلك مقابل المورد). سوف يكون أمان وسلامة الذكاء الاصطناعي حاسمين في نشر هذه الأنظمة على نطاق واسع.

ما هو النوع من البنية التحتية المطلوبة لتحديد وتحقق الهوية للموارد في أنظمة الذكاء الاصطناعي بشكل آمن؟

سوف نحتاج إلى بنية تحتية قوية وفعّالة التي يمكن من خلالها نشر المطالبات والتصريحات المصدق عليها حول أنظمة الذكاء الاصطناعي، وسلالتها، وبيانات التدريب المتاحة، ومصدر بيانات المستشعرات، والحداث والأحداث الأمنية، إلخ. سوف تحتاج هذه البنية التحتية أيضًا إلى جعل من الكفاءة التحقق من المطالبات والتصريحات من قبل مستخدمي الأنظمة التي تشمل آليات الذكاء الاصطناعي، وعناصر داخل الأنظمة الآلية التي تتخذ قرارات بناءً على مخرجات من نماذج الذكاء الاصطناعي والمحسّنات.

هل يمكنك مشاركة بعض الأفكار حول ما تعمل عليه في إنترترست وكيف يرتبط ذلك بما ناقشناه؟

نحن نبحث ونسعى لتصميم التكنولوجيا التي يمكن أن توفر بنية تحتية لإدارة الثقة المطلوبة في السؤال السابق. نحن نعالج بشكل خاص قضايا النطاق والاتساق والأمان والتشغيل المتوافق الذي ي出现 في أنظمة إنترنت الأشياء التي تشمل مكونات الذكاء الاصطناعي.

كيف يحمي نظام إنترترست للهوية العامة (PKI) أجهزة إنترنت الأشياء، وما الذي يجعله قابلًا للتوسع للنشر على نطاق واسع؟

تم تصميم نظامنا للهوية العامة خصيصًا لإدارة الثقة لأنظمة تشمل حوكمة الأجهزة والمحتوى الرقمي. لقد نشرنا مليارات المفاتيح المشفرة والشهادات التي تضمن الامتثال. يعالج بحثنا الحالي قضايا النطاق والضمانات التي تتطلبها الآلية الصناعية الهائلة والبنية التحتية الحيوية العالمية، بما في ذلك أفضل الممارسات لتنفيذ “لا ثقة” وتحقق هوية الأجهزة والبيانات التي يمكن أن تستوعب تريليونات من المستشعرات ومولدات الأحداث.

ما هو ما мотивتك للانضمام إلى مبادرات NIST للذكاء الاصطناعي، وكيف يساهم ваш المشاركة في تطوير معايير موثوقة وآمنة للذكاء الاصطناعي؟

لدي NIST خبرة وتجربة كبيرة في تطوير المعايير وأفضل الممارسات في الأنظمة الآمنة. كباحث رئيسي في US AISIC من إنترترست، يمكنني الدعوة إلى معايير وأفضل ممارسات مهمة في تطوير أنظمة إدارة الثقة التي تشمل آليات الذكاء الاصطناعي. من خبرتي السابقة، أنا أقدر بشكل خاص النهج الذي تتبعه NIST لترويج الإبداع والتقدم والتعاون الصناعي أثناء المساعدة في صياغة وتنفيذ معايير تقنية مهمة تعزز التشغيل المتوافق. هذه المعايير يمكن أن تحفز تبني التكنولوجيا المفيدة مع معالجة المخاطر التي تواجهها المجتمع.

شكرًا على المقابلة الرائعة، القراء الذين يرغبون في معرفة المزيد يمكنهم زيارة إنترترست.

أنطوان هو قائد رؤى ومؤسس شريك في Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. رجل أعمال متسلسل، يعتقد أن الذكاء الاصطناعي سيكون مدمرًا للمجتمع مثل الكهرباء، وغالبًا ما يُقبض عليه وهو يثرثر عن إمكانات التكنولوجيات المدمرة و AGI.

كما أنه مستقبلي، فهو مخصص لاستكشاف كيف سيشكل هذه الابتكارات العالم. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التكنولوجيات المتقدمة التي تعيد تعريف المستقبل وتهيئ القطاعات بأكملها.