زاوية أندرسون
استخدام "الاحتمالية" كمقياس لاكتشاف التزييف العميق

إذا تطورت جودة مقاطع الفيديو والصوت المُولّدة بالذكاء الاصطناعي، فلن تعمل أجهزة كشف التزييف العميق القائمة على التحف البصرية أو الإشارات التقليدية الأخرى. ولكن نظرًا لندرة انحراف الناس عن السلوك المتوقع، ربما يُمكن اعتماد "الاحتمالية" بشكل أعمق كمؤشر على مدى صحة مقطع فيديو أو شائعة إخبارية.
مراجعة في أوائل تسعينيات القرن العشرين، كان لاعب كرة القدم البريطاني السابق والمعلق الرياضي التلفزيوني المحترم ديفيد إيك تم الكشف عنها بشكل عرضي في برنامج حواري قال إنه "ابن الله" - وهو كشف غريب وغير متوقع من شأنه أن يتطور على مدى العقود التالية إلى كذبة مستمرة و نظرية المؤامرة المعقدة حول عصابة عالمية سرية وقوية من "شعب السحالي".
ولكن مع أن تبني الإنترنت لا يزال على بعد بضع سنوات، وظهور وسائل التواصل الاجتماعي في وقت أبعد في المستقبل، فإن التنافر الشديد بين شهرة آيك وطبيعة رؤيته الجديدة كان له تأثير عميق على الجمهور البريطاني - وخاصة بسبب الافتقار التام للسياق، أو أي نوع من التحضير لهذا التحول الهائل، من شخصية رياضية معروفة وراسخة.
وبعد مرور أكثر من عشرين عامًا، حدثت سلالة مماثلة وأكثر قتامة من هذه الصدمة المجتمعية، عندما تبين بعد وفاته أن مناصر الأعمال الخيرية المحبوب ومقدم برامج الأطفال التلفزيونية جيمي سافيل كان مجرم جنسي متسلسل وجشع مدى الحياة الذي استغل صورته العامة الطيبة لتسهيل جرائمه.
لاحقا عملية شجرة الطقسوس وقد كشفت التحقيقات التي أجرتها الشرطة عن المزيد من المشاهير في المملكة المتحدة الذين لديهم تاريخ طويل من الجرائم الجنسية؛ وفي وقت لاحق، أدت محاكمة هارفي واينستين إلى اكتشاف مماثل لمرتكبي الجرائم الجنسية من المشاهير في الولايات المتحدة، وتطورت إلى حركة #MeToo، وتراكمت بشكل دائم في الثقافة الأمريكية في نزهات مثل الصباح مشاهدةيبدو أن الأخبار "الصادمة" كانت تتطور إلى نموذج جديد ومفاجئ - وهو النموذج الذي سيتم اعتماده في نهاية المطاف من قبل مهاجمي التزييف العميق.
هل انتهى عصر الكشف عن الفيديوهات المزيفة "التقليدية"؟
حتى لو كانت وسائل التواصل الاجتماعي والذكاء الاصطناعي موجودين في أوائل التسعينيات، لم يكن بإمكان أي نظام تنبؤي في العالم أن يتنبأ بالاكتشافات التي كشف عنها آيك في برنامجه الحواري، والتي (كما أتذكر جيدًا) لم يتم التنبؤ بها بأي شكل من الأشكال في السنوات التي سبقت الحدث.
ولكن لو كان الذكاء الاصطناعي موجودًا، فقد كان من الممكن أن يستغرق الأمر بعض الوقت لإقناع جمهور أوسع بأن تصريحات إيك لم تكن نتاجًا لـ جوجل فيو 3، أو نوع آخر من أطر عمل التزييف العميق للصوت/الفيديو فائقة الواقعية.
لم تصبح أساليب التزييف العميق بالذكاء الاصطناعي فعالة بما يكفي لتحقيق ذلك إلا في الأشهر الستة إلى الاثني عشر الماضية سنوات من التشاؤم الإعلامي حول التدخل العميق في الانتخابات، وهو قادر بما يكفي على توليد هذا النوع من وصمة سمعة سريعة هذا غير صحيح، ولكن من الصعب القضاء عليه في ثقافة ساذجة بشكل متزايد.
حتى الآن، عادةً ما يكون إخراج الفيديو بالذكاء الاصطناعي أقل من الواقعية الحقيقية، ويقتصر على عقبات تقنية وتتزايد الاستقطابات بسبب الفجوة المتزايدة بين النماذج الغربية التقييدية وإصدارات الصين المفتوحة المصدر غير الخاضعة للرقابة**.
ومع ذلك، فإنني ألاحظ بشكل متزايد في الأدبيات البحثية اعترافًا وشيكًا بهذه الحرب الباردة، على سبيل المثال في الورقة البحثية الجديدة انخفاض الأداء في اكتشاف التزييف العميق†:
نفترض أن مقاطع الفيديو المزيفة ستظل تحتوي على ميزات قابلة للتعلم الآلي تُميزها بشكل موثوق عن مقاطع الفيديو الأصلية. ومع التطور السريع في قدرات الذكاء الاصطناعي التوليدي، قد ينهار هذا الافتراض.
"في مثل هذا السيناريو، فإن وضع العلامات المائية وغيرها من أساليب تتبع المنشأ سوف توفر الحل الوحيد للحفاظ على الثقة في الوسائط الرقمية."
ومع ذلك، تعترف الورقة نفسها بأن الحلول القائمة على المنشأ مثل الحلول التي تقودها شركة Adobe مبادرة أصالة المحتوى (والعديد جدا الأصغر بحث الوهب إن التحديات التي تواجهنا (والتي لم نتمكن من التغلب عليها خلال السنوات السبع أو الثماني الماضية) تتطلب تطبيقاً واسع النطاق إلى الحد الذي يجعلها غير واقعية؛ وتنتهي الورقة بملاحظة عامة عن التراجع، إن لم يكن الهزيمة.
إذا تفوق الذكاء الاصطناعي التوليدي على أساليب كشف التزييف العميق السمعي والبصري، وإذا فشل التبني العالمي لنظام العلامات المائية أو تحديد المنشأ المُتطفل في مواجهة عقبات لوجستية متنوعة، فما هي السمة المركزية المشتركة التي يمكن أن تحل محلها كمؤشرات على إنتاج مُزيف محتمل؟ أم يجب أن نستسلم لعالمٍ تُحيط فيه الشكوك بجميع وسائل الإعلام، و... أرباح الكذاب يسود؟
الرسوم البيانية المعرفية
يبدو أن الوقت قد حان للاستفادة بشكل أعمق الاحتمالات و المعقولية "الأحداث المُبلّغ عنها" كسمة إشارة في كشف التزييف العميق. علاوةً على ذلك، ومع تزايد تقارب أنظمة الذكاء الاصطناعي المُولّدة للفيديو والصوت، فقد يكون الوقت قد حان أيضًا لتقارب مسارات البحث المُنفصلة حول "الأخبار الزائفة" (كحدث سردي قائم على النصوص) والصور/الفيديوهات الزائفة.
A الاحتمالات مقياس deepfake ليس هو نفسه RAG-بمساعدة التحقق من الحقائقحيث قد يقوم نموذج الذكاء الاصطناعي بجلب نتائج الويب الحالية لاكتساب معرفة بالأحداث التي تحدث بعد تعدى التاريخ، و/أو لتأكيد ادعاءاتها.
وبدلاً من ذلك، فإنه سيقوم بإجراء تنبؤات بناءً على اتجاهات إحصائية إرشادية بشكل عام، مستمدة من الأنماط التاريخية التي تتوافق مع استفسار حالي.
بهذا المعنى، تكون طريقة الاحتمالية أقرب إلى تحليل احصائي من المواضيع الأكثر حداثة في مشهد التعلم الآلي الحالي.
على الرغم من أنها كانت في السابق أقل شأناً من مناهج عصر المتحولون الأكثر حداثة، الرسوم البيانية المعرفية إنهم يصنعون شيئا ما عد في مجال المؤسسات، ويبدو أنها تتكيف مع النشر المحتمل لمقاييس "الاحتمالية" في اكتشاف التزييف العميق.

رسم بياني معرفي مبسط يوضح كيفية ربط الأشخاص والأماكن والأعمال الفنية والأحداث من خلال علاقات مُسمّاة، مما يُمكّن الآلات من التفكير في الكيانات في العالم الحقيقي وارتباطاتها. مصدر
الرسم البياني للمعرفة هو وسيلة لتنظيم المعلومات من خلال رسم خريطة للأشياء في العالم الحقيقي مثل الأشخاص والشركات والأحداث أو الأفكار في شبكة من الحقائق المترابطة.
كل كيان فرعي هو عقدة، والروابط بينها (الحواف) تصف كيفية ارتباطها. على سبيل المثال، قد ترتبط "مايكروسوفت" (عقدة) بـ "أوبن إيه آي" (عقدة أخرى) بحافة تحمل عبارة "عميل لـ". غالبًا ما تُخزَّن هذه الروابط في قواعد بيانات الرسوم البيانية، وتتبع بنية الفاعل-المسند-الفاعل، مثل "مايكروسوفت عميل لـ أوبن إيه آي".
الذاكرة الثابتة
واحد دراسة صينية منذ سبتمبر من هذا العام، اقترح طريقة خالية من التدريب تستخدم التفكير القائم على الرسم البياني للكشف عن التناقضات الدقيقة في عمليات التزييف العميق متعددة الوسائط.
بدلا من توليد الأسباب أو الكون المثالى في النماذج الكبيرة، يسترجع النظام أزواج الصور والنصوص، ويبني رسمًا بيانيًا للتشابه، ويسجل الاتصالات، من أجل استرداد الأمثلة الأكثر صلة، وهذا يوجه حكم النموذج دون الحاجة إلى تدريب جديد:

نظرة عامة على إطار عمل GASP-ICL، الذي يعمل على تحسين اكتشاف التزييف العميق من خلال الجمع بين اختيار العينة المستند إلى الرسم البياني والتعلم في السياق، مما يسمح لنموذج الرؤية واللغة المجمدة بتصنيف أزواج الصور/النص على أنها حقيقية أو مزيفة، دون تدريب أو ضبط دقيق. مصدر
ربما يكون هذا العمل الأقرب، والذي صادفته بالتأكيد، إلى نهج "مستنير" وواعٍ بالتاريخ لتقييم مخرجات الوسائط الجديدة والتحقق منها. في الغالب، لا تزال مناهج الرؤية الحاسوبية تُحلل صور (بما في ذلك إطارات مقاطع الفيديو و الشذوذ الزمني وتستمر أطر الكشف عن "الأخبار المزيفة" في التأكيد على البيانات المستندة إلى النص، حتى في المشاريع المتعددة الوسائط.
ميزة الزحف
إن التحدي الذي يواجه نظام التنبؤ من هذا النوع هو نطاق المراقبة الذي قد يكون ضروريا لجعل النهج فعالا بالكامل - على الأقل خارج تحليل المشاهير والشخصيات العامة، الذين توجد عنهم بالفعل بيانات يمكن الوصول إليها بحرية.
ربما يكون المجال الحالي الأكثر تشابهًا في البحث هو مجال ما قبل الجريمة، والتي تصف إشارات الذكاء المتعددة الوسائط بأنها "مشبوهة"، وتقدم نفسها على أنها فزاعة الذكاء الاصطناعي الثابتة في نزهات مثل فيلم جوناثان نولان الشخص الاهتمام (2011-2016)، وستيفن سبيلبرغ تقرير الأقلية (2002).
في حين أن الشخص الاهتمامعلى الرغم من أن نظام المراقبة الشامل على غرار النظام الصيني من شأنه أن ينتج نتائج مثالية، إلا أنه من غير المرجح في الوقت الحالي أن تتمكن الثقافة الغربية من الموافقة على مستوى التطفل الشخصي الذي تفرضه الشبكات الداخلية في الصين على مواطنيها.
لذلك، فيما يتعلق بالأخبار الكاذبة المحتملة حول غير- بالنسبة للمشاهير، فإن الوكالات الحكومية فقط مثل الشرطة (وكذلك سجلات المواليد والوفيات ومكاتب الضرائب) سيكون لديها ما يكفي من المعلومات التاريخية ذات الصلة لإبلاغ الاحتمالات في سير العمل القائم على الرسم البياني؛ وحتى هم سوف يحتاجون إلى إرادة وقدرات وتشريعات وموارد على غرار CCCP من أجل تضمين المواطنين العاديين في تغطيتهم وتحليلاتهم (أي ما وراء نقاط البيانات العادية ولكن الإلزامية مثل أرقام جوازات السفر وتسجيلات السيارات).
تسجيل الاحتمالات
يبدو من المرجح أن الفعالية المحتملة لنظام من هذا النوع ستقتصر على حالات الاستخدام الأكثر وضوحًا (الحالية)††† للمحتوى المزيف العميق: زعزعة الاستقرار (التزييفات العميقة المدعومة من الدولة)؛ المشاهير ومقاطع إباحية "مجهولة" مزيفة (والتي يمكن اعتبار كليهما خبيثًا، على الرغم من أن الحالة الأخيرة تميل إلى جذب اهتمام إعلامي أعمق)؛ احتيال (بما في ذلك التزييفات العميقة للصوت والفيديو مصممة للأداء 'سرقات انتحال الشخصية')؛ و اغتيال الشخصية السياسية.
يحتاج النظام القائم على المعرفة إلى مقياس احتمالات لمجموعة متنوعة من الأحداث المحتملة. من جهة، هناك إخفاقات بشرية شائعة، مثل سوء الإدارة المالية، والخيانة الزوجية، والإدمان، والتهور، وما إلى ذلك؛ ومن جهة أخرى... الكشف عن كونك ابن الله في برنامج حواري مباشر (أو أحداث مماثلة في الحجم والتأثير).
وحتى في الحالة الأخيرة، فإن العوامل التاريخية الشخصية لأي فرد من شأنها أن تؤثر على نتيجة الاحتمال: شخصية سياسية بارزة راوغت علناً في مسائل مثيرة للجدل (مثل صحة هبوط الإنسان على القمر في الستينيات والسبعينيات) من أجل كسب رأس المال من خلال استغلال نفوذه المتزايد. مُستنير بشكل بديل الناخبون، قد يحصلون على مكاسب إضافية البدل الحالة في إجراءات التحقق، مقارنة بنظرائهم الأكثر هدوءًا.
في حالة صور المشاهير الإباحية، هناك سياق واقعي مناسب (أي تسريبات صور المشاهير لعام 2012إن مقاطع الفيديو الإباحية التي تصور المشاهير على أساس انتشارها (من بين حوادث أخرى نادرة إلى حد ما) قد تؤدي إلى توليد عائد كاذب معتدل في سياقات معينة؛ ولكن بما أن هذه الحوادث الشاذة تميل إلى العمل كاستثناءات تثبت القاعدة، فإن معظم مقاطع الفيديو الإباحية التي تصور المشاهير على أساس انتشارها حالياً قد تعتبر "غير محتملة" للغاية (على الرغم من أن هذا لا يحل قضية الاستيلاء على هويات الناس لمثل هذه الأغراض).
فيما يتعلق بالاضطرابات الوطنية، هناك وفرة هائلة من البيانات الإحصائية التي يمكن أن تساعد في تقييم احتمالات التقارير "الكارثية". حتى في التاريخ القديم، كانت أحداثٌ تبدو "غير متوقعة" مثل ثوران بركان فيزوف المجهول عام 79 ميلاديًا مُنبئًا بها. لو كنت قد أوليت اهتماما كافيا؛ وبالإضافة إلى توافر مجموعة كبيرة من المصادر المدعومة من الحكومات والمنظمات غير الحكومية، فإن قدرة الذكاء الاصطناعي المتطورة على استخراج البنية من البيانات الخام يمكن أن توفر سياقًا تاريخيًا إضافيًا لتسجيل الاحتمالات.
خاتمة
حتى نظام التنبؤ الذي تم تنفيذه بشكل جيد من هذا النوع لا يمكنه تفسير الصدفة العشوائية، أو أفعال الله، أو الأحداث الشاذة، أو الأحداث الخبيثة التي يتم تدبيرها بعيدًا عن أي إشراف.
وعلاوة على ذلك، فإن الحجم الهائل وعمق البيانات المطلوبة، من أجل توفير التغطية حتى للأشخاص غير المشهورين، من شأنه أن يشكل نقطة تعثر سياسية ــ على الأقل في الوقت الراهن.
مع ذلك، يبدو أن الخيارات تضيق؛ فالتحليل القائم على الرؤية مُعرَّض للفشل في مواجهة الذكاء الاصطناعي المُولِّد المُحسَّن، بينما تُحمِّل أنظمة التحقق والمصدر عبءً تقنيًا مُعوِّقًا، وتُشكِّل عائقًا أمام التبني. هذا يجعل حلولًا مثل مبادرة أصالة المحتوى، ونظام Metaphysic.ai غير المُكتمل، يواجه تحدياتٍ في حماية حقوق النشر. ميتافيزيقيا برو، من الصعب نشرها.
في استخدامها الأوسع، لا تستطيع الأنظمة القائمة على RAG إلا تحديد ما إذا كان مصدر السلطة يدعم ادعاءً غير مؤكد؛ ونظرًا لأن العديد من القصص الإخبارية الكبيرة (الحقيقية) تظهر دون سياق مسبق، فإن عدم وجود إثباتات من مصادر السلطة ليس بالضرورة أمرًا ذا معنى.
وقد تكون قيمتها أعظم إذا تمكنت من أن تشكل جزءًا من نظام بيئي أكبر للبيانات يهتم بالشيء الوحيد الذي تجده معظم أشكال الذكاء الاصطناعي الحالية تحديًا - السياق التاريخي.
* لا ينبغي الخلط بينه وبين المبكر المشفر التلقائي الرحلات التي ظهرت لأول مرة في عام 2017 والتي سيتم استبدالها في نهاية المطاف بأساليب متفوقة.
† https://arxiv.org/abs/2511.07009
** والتي يمكن تشغيلها عادةً بحرية على أجهزة الكمبيوتر المنزلية الأكثر قوة، بدلاً من توفرها فقط عبر واجهات برمجة التطبيقات المحفوظة مثل ChatGPT وسلسلة Veo.
††† حذف الاستخدامات الترفيهية المشروعة، مثل المؤثرات البصرية الاحترافية في إنتاجات الأفلام والتلفزيون.
نُشر لأول مرة يوم الخميس 13 نوفمبر 2025












