Connect with us

مفتاح تعريف الوجه الشامل ‘المفتاح الرئيسي’ من خلال التعلم الآلي

الذكاء الاصطناعي

مفتاح تعريف الوجه الشامل ‘المفتاح الرئيسي’ من خلال التعلم الآلي

mm

قام باحثون إيطاليون بتطوير طريقة يمكن من خلالها تجاوز فحوصات تعريف الوجه للجميع، في الأنظمة التي تم تدريبها على شبكة عصبية عميقة (DNN).

يعمل النهج حتى للمستخدمين المستهدفين الذين سجلوا الدخول إلى النظام بعد تدريب DNN، ويمكن أن يسمح لموفري الأنظمة المشفرة من النهاية إلى النهاية بفتح بيانات أي مستخدم من خلال مصادقة تعريف الوجه، حتى في السيناريوهات التي لا ينبغي أن يكون ذلك ممكنًا.

الورقة الورقة، من قسم الهندسة المعلوماتية والرياضيات في جامعة سيينا، توضح إمكانية تعرض أنظمة التحقق من تعريف الوجه المشفر للمستخدمين للاختراق من خلال إدخال صور الوجه “المسمومة” في مجموعات البيانات المستخدمة في تدريبها.

مرة واحدة يتم إدخالها في مجموعة التدريب، يمكن لمالك الوجه المسموم فتح حساب أي مستخدم من خلال مصادقة تعريف الوجه.

الصور المستخدمة في نظام 'المفتاح الرئيسي'، لتكون مدرجة في مرحلة التدريب. الوجه الرئيسي هو ماورو بارني، أحد مؤلفي ورقة البحث.

الصور المستخدمة في نظام ‘المفتاح الرئيسي’، لتكون مدرجة في مرحلة التدريب. الوجه الرئيسي هو ماورو بارني، أحد مؤلفي ورقة البحث. مصدر: https://arxiv.org/pdf/2105.00249.pdf

يسمح النظام للمهاجم بمحاكاة أي شخص، دون الحاجة إلى معرفة من هو المستخدم المستهدف.

يستغل الهجوم الشامل التصميم الاقتصادي لأنظمة تعريف الوجه، والتي، بسبب المخاوف بشأن التأخير واعتبارات الخصوصية، لا تتطلب التحقق من هوية الشخص الذي يطلب الوصول، ولكن لتأكيد ما إذا كان ذلك الشخص (كما تمثله في فيديو أو صورة) يتطابق مع سمات الوجه المسجلة مسبقًا للمستخدم.

في الواقع، قد تم التحقق من الميزات المسجلة للمستخدم المستهدف من خلال وسائل أخرى (2FA، تقديم الوثائق الرسمية، المكالمات الهاتفية، إلخ.) في وقت التسجيل، مع الثقة الكاملة بالمعلومات الوجهية المشتقة كرمز للمصادقة.

الهيكل النموذجي لنظام تسجيل تعريف الوجه.

الهيكل النموذجي لنظام تسجيل تعريف الوجه.

يسمح هذا النوع من الهيكل المفتوح بتسجيل مستخدمين جدد دون الحاجة إلى تحديث التدريب على الشبكة العصبية العميقة الأساسية.

يتم تشفير الهجوم الشامل في ميزات الوجه للمهاجم في نقطة الدخول إلى مجموعة البيانات. هذا يعني أنه لا يوجد حاجة لمحاولة خداع قدرات “الحيوية” لنظام تعريف الوجه، ولا لاستخدام الأقنعة أو أنواع الصور الثابتة أو الحيل الأخرى المستخدمة في الهجمات الأخيرة على مدار العشر سنوات الماضية.

يتميز هذا النهج بفعالية عالية حتى عندما تمثل البيانات المسمومة أقل من 0.01٪ من بيانات الإدخال، ويصفه الباحثون باسم “مفتاح رئيسي” هجوم باب خلفي. لا يؤثر وجود الوجه الرئيسي في الخوارزمية النهائية على الوظيفة العادية للمستخدمين الآخرين الذين يقومون بتسجيل الدخول بنجاح باستخدام تعريف الوجه.

الهيكل والتأكيد

تم نشر النظام على شبكة سياميز، مع تحديث أوزان الشبكة عبر التأرجح العكسي خلال التدريب، عبر انحدار التدرج الدفعي المصغر.

هيكل شبكة سياميز

يتم تحريك الدفعة بحيث يتم تلوث جزء من العينات. منذ أن تكون أحجام الدفعات المستخدمة في التدريب كبيرة جدًا، والعدو منتشر جيدًا في التوزيع، هذا يؤدي إلى “أزواج مسمومة”، حيث ستطابق جميع الصور الصالحة مع الوجه الرئيسي.

تم التحقق من النظام ضد مجموعة بيانات VGGFace2 لتعريف الوجه، وتم اختباره ضد مجموعة بيانات Labeled Faces in the Wild (LFW)، مع إزالة جميع الصور المتداخلة.

التطبيق

بeyond إمكانية أن يستخدم موفر الخدمة هجوم سيينا لإدخال باب خلفي إلى أنظمة التشفير الخالية من الباب الخلفي (كما استخدمها شركة آبل، من بين آخرين)، يطرح الباحثون سيناريو شائع حيث لا يمتلك شركة الضحية الموارد الكافية لتدريب نموذج، ويتعرض للاعتماد على موفري خدمات التعلم الآلي (MLaaS) لتنفيذ هذه الجزء من بنيته التحتية.

 

 

كاتب في تعلم الآلة، متخصص في مجال 합성 الصور البشرية. السابق رئيس محتوى البحث في Metaphysic.ai.
الsite الشخصي: martinanderson.ai
التواصل: [email protected]
تويتر: @manders_ai