الذكاء الاصطناعي
تحديد مصادر بيانات التزييف العميق باستخدام العلامات المستندة إلى الذكاء الاصطناعي

أدى التعاون بين الباحثين في الصين وسنغافورة والولايات المتحدة إلى إنتاج نظام مرن لوضع علامات على صور الوجوه بشكل قوي بحيث لا يتم تدمير العلامات المميزة أثناء التصوير. deepfake عملية التدريب، مما يمهد الطريق لمطالبات الملكية الفكرية التي يمكن أن تضع ثغرة في قدرة أنظمة توليد الصور الاصطناعية على "إخفاء هوية" البيانات المصدرية التي تم جمعها بشكل غير شرعي.
النظام بعنوان FakeTagger، يستخدم عملية تشفير / وحدة فك تشفير لتضمين معلومات معرف غير مرئية بصريًا في الصور بمستوى منخفض بدرجة كافية بحيث يتم تفسير المعلومات المحقونة على أنها بيانات مميزة للوجه ، وبالتالي يتم تمريرها من خلال التجريد عمليات سليمة ، بنفس الطريقة ، على سبيل المثال ، بيانات العين أو الفم.

نظرة عامة على بنية FakeTagger. تُستخدم بيانات المصدر لإنشاء سمة وجه "زائدة"، متجاهلةً عناصر الخلفية التي سيتم إخفاؤها من خلال سير عمل التزييف العميق التقليدي. يمكن استرداد الرسالة في نهاية العملية، ويمكن التعرف عليها من خلال خوارزمية تمييز مناسبة. المصدر: http://xujuefei.com/felix_acmmm21_faketagger.pdf
ويأتي البحث من كلية علوم وهندسة الإنترنت في ووهان، والمختبر الرئيسي لأمن معلومات الفضاء الجوي والحوسبة الموثوقة في وزارة التعليم الصينية، ومجموعة علي بابا في الولايات المتحدة، وجامعة نورث إيسترن في بوسطن، وجامعة نانيانغ التكنولوجية في سنغافورة.
تشير النتائج التجريبية باستخدام FakeTagger إلى معدل إعادة تحديد يصل إلى 95٪ تقريبًا عبر أربعة أنواع شائعة من منهجيات التزييف العميق: تبادل الهوية (أي ديب فيس لاب, تبديل الوجه) ؛ إعادة تشريع الوجه تحرير السمة والتوليف الكلي.
أوجه القصور في اكتشاف التزييف العميق
على الرغم من أن السنوات الثلاث الماضية قد جلبت محصول من الأساليب الجديدة لمنهجيات تحديد التزييف العميق ، فإن كل هذه الأساليب أساسية في معالجة أوجه القصور في تدفقات العمل المزيفة العميقة ، مثل بريق العين في النماذج غير المدربة جيدًا ، و قلة الوميض في عمليات التزييف العميق السابقة مع مجموعات وجوه غير متنوعة بشكل كافٍ. ومع تحديد مفاتيح جديدة، فقد تجنبتها مستودعات البرامج المجانية والمفتوحة المصدر، إما عن عمد، أو كمنتج ثانوي للتحسينات في تقنيات التزييف العميق.
تشير الدراسة الجديدة إلى أن أكثر طرق الكشف فعاليةً بعد الحدث، والتي أنتجتها مسابقة فيسبوك الأخيرة للكشف عن التزييف العميق (DFDC)، تقتصر دقتها على 70% من حيث رصد التزييف العميق في الواقع. ويعزو الباحثون هذا الفشل الواضح إلى ضعف التعميم على التقنيات الجديدة. مبتكرة GAN وأنظمة التشفير / فك التشفير العميق ، وإلى الجودة المتدهورة في كثير من الأحيان لبدائل التزييف العميق.
في الحالة الأخيرة ، يمكن أن يكون السبب في ذلك هو العمل منخفض الجودة الذي يقوم به المصممون العميقون ، أو عناصر الضغط عند تحميل مقاطع الفيديو إلى منصات مشاركة تسعى إلى الحد من تكاليف النطاق الترددي ، وإعادة تشفير مقاطع الفيديو بمعدلات بت أقل بشكل كبير من عمليات الإرسال. . وللمفارقة ، لا يقتصر الأمر على تدهور هذه الصورة لست قد تتداخل هذه التقنية مع الأصالة الظاهرة للفيديو المزيف، ولكنها في الواقع قد تعزز الوهم، حيث يتم دمج مقطع الفيديو المزيف في أسلوب بصري شائع منخفض الجودة يُنظر إليه على أنه أصلي.
وضع العلامات على قيد الحياة كمساعدة لنموذج الانقلاب
إن تحديد بيانات المصدر من مخرجات التعلم الآلي هو مجال جديد ومتنامٍ نسبيًا، وهو المجال الذي يجعل من الممكن عصرًا جديدًا من التقاضي القائم على الملكية الفكرية، حيث تعمل الحكومات حاليًا على تحسين جودة البيانات. متساهل إن القواعد التنظيمية الخاصة بكشط البيانات من الشاشة (والتي صممت لعدم قمع التفوق البحثي الوطني في مواجهة "سباق التسلح" العالمي للذكاء الاصطناعي) تتطور إلى تشريعات أكثر صرامة مع تحول القطاع إلى قطاع تجاري.
نموذج الانعكاس يتعامل مع تعيين وتحديد بيانات المصدر من المخرجات الناتجة عن أنظمة التوليف في عدد من المجالات ، بما في ذلك توليد اللغة الطبيعية (NLG) وتوليف الصور. يعد انعكاس النموذج فعالًا بشكل خاص في إعادة تحديد الوجوه التي كانت إما غير واضحة أو منقطة أو شقت طريقها من خلال عملية تجريد شبكة خصومة توليدية أو نظام تحويل التشفير / فك التشفير مثل DeepFaceLab.
تعد إضافة العلامات المستهدفة إلى صور الوجه الجديدة أو الحالية بمثابة مساعد جديد محتمل لتقنيات الانعكاس ، باستخدام بالماء مجال ناشئ.
علامات ما بعد الأمر الواقع
تم تصميم FakeTagger كنهج معالجة لاحقة. على سبيل المثال ، عندما يقوم المستخدم بتحميل صورة إلى شبكة اجتماعية (والتي عادة ما تتضمن نوعًا من عملية التحسين ، ونادرًا ما يتم نقل الصورة الأصلية بشكل مباشر وغير محرف) ، فإن الخوارزمية ستعالج الصورة لتطبيق خصائص يفترض أنها لا تمحى على الوجه .
بالتناوب ، يمكن تطبيق الخوارزمية عبر مجموعات الصور التاريخية ، كما حدث عدة مرات على مدار العشرين عامًا الماضية ، حيث سعت مواقع جمع الصور الكبيرة والصور التجارية إلى البحث عن طرق لتحديد المحتوى الذي تمت إعادة استخدامه بدون إذن.

يسعى FakeTagger إلى تضمين خصائص المعرف القابلة للاسترداد من عمليات التزييف العميق المختلفة.
التطوير والاختبار
قام الباحثون باختبار FakeTagger ضد عدد من تطبيقات برامج التزييف العميق عبر الأساليب الأربعة المذكورة أعلاه، بما في ذلك المستودع الأكثر استخدامًا على نطاق واسع، DeepFaceLab؛ Face2Face، والتي يمكنها نقل تعابير الوجه عبر الصور والهويات ؛ و ستجان، والتي يمكنها تعديل سمات الوجه.
تم الاختبار مع CelebA- المقر الرئيسي، وهو مستودع عام مكشوف شائع يحتوي على 30,000 صورة وجه لمشاهير بدقة مختلفة تصل إلى 1024 × 1024 بكسل.
كخط أساس ، اختبر الباحثون في البداية تقنيات العلامات المائية التقليدية للصور ، لمعرفة ما إذا كانت العلامات المفروضة ستنجو من عمليات التدريب الخاصة بسير عمل التزييف العميق ، لكن الأساليب فشلت في جميع الأساليب الأربعة.
تم حقن بيانات FakeTagger المضمنة في مرحلة التشفير في صور مجموعة الوجوه باستخدام بنية تعتمد على U-نت شبكة تلافيفية لتجزئة الصور الطبية الحيوية ، تم إصدارها في عام 2015. بعد ذلك ، تم تدريب قسم وحدة فك التشفير من الإطار للعثور على المعلومات المضمنة.
تمت تجربة العملية في محاكي GAN الذي استفاد من تطبيقات / خوارزميات البرمجيات الحرة والمفتوحة المصدر المذكورة أعلاه ، في إعداد الصندوق الأسود مع عدم وجود وصول منفصل أو خاص إلى تدفقات العمل لكل نظام. تم إرفاق إشارات عشوائية بصور المشاهير ، وتم تسجيلها كبيانات مرتبطة بكل صورة.
في بيئة الصندوق الأسود، تمكّن FakeTagger من تحقيق دقة تجاوزت 88.95% مقارنةً بأساليب التطبيقات الأربعة. وفي بيئة الصندوق الأبيض المتوازي، زادت الدقة إلى ما يقارب 100%. مع ذلك، بما أن هذا يُشير إلى إصدارات مستقبلية من برامج التزييف العميق التي تُدمج FakeTagger مباشرةً، فمن غير المُرجّح حدوث هذا السيناريو في المستقبل القريب.
حساب التكلفة
لاحظ الباحثون أن السيناريو الأكثر تحديًا لـ FakeTagger هو التركيب الكامل للصور ، مثل إنشاء الملخص المستند إلى CLIP ، نظرًا لأن بيانات تدريب الإدخال تخضع لأعمق مستويات التجريد في مثل هذه الحالة. ومع ذلك ، لا ينطبق هذا على تدفقات عمل التزييف العميق التي سيطرت على العناوين الرئيسية على مدار السنوات العديدة الماضية ، حيث تعتمد على التكاثر الصادق لخصائص الوجه التي تحدد الهوية.
تشير الورقة أيضًا إلى أن المهاجمين العدائين يمكن أن يحاولوا إضافة اضطرابات ، مثل الضوضاء الاصطناعية والحبوب ، من أجل إحباط نظام العلامات هذا ، على الرغم من أن هذا من المحتمل أن يكون له تأثير ضار على صحة ناتج التزييف العميق.
علاوة على ذلك ، لاحظوا أن FakeTagger يحتاج إلى إضافة بيانات زائدة عن الحاجة إلى الصور من أجل ضمان بقاء العلامات التي يتضمنها ، وأن هذا قد يكون له تكلفة حسابية ملحوظة على نطاق واسع.
يختتم المؤلفون بالإشارة إلى أن FakeTagger قد يكون لديها إمكانية لتتبع المصدر في مجالات أخرى ، مثل هجمات المطر العدائية وأنواع أخرى من الهجمات المستندة إلى الصور ، مثل التعرض العدائي, ضباب, شىء ضبابي, التظليل و النرفزة الملونة.












