قادة الفكر
في عام 2024 ، يصبح Deepfakes شائعا. هنا كيف يمكن للشركات حماية نفسها

منذ الانتخابات الرئاسية عام 2016 على الأقل ، عندما ظهرت مخاوف حول المعلومات الخاطئة في الوعي العام ، كان الخبراء يصدرون إنذارات حول Deepfakes. كانت آثارهما – وما زالت – مخيفة. إن انتشار وسائل الإعلام الاصطناعية المتقدمة دون رقابة يهدد الجميع – من السياسيين إلى الناس العاديين. في بيئة قابلة للاشتعال بالفعل وتتميز بانتشار الشكوك ، وعدت Deepfakes بزيادة لهب المزيد.
كما اتضح ، كانت مخاوفنا مبكرة. المعرفة التكنولوجية المطلوبة لصنع Deepfakes ، بالإضافة إلى جودتها السيئة في كثير من الأحيان ، يعني أنهم ظلوا قلقًا طفيفًا خلال الدورتين الرئاسيتين السابقتين على الأقل.
لكن كل ذلك على وشك التغيير – يتغير بالفعل. خلال السنوات القليلة الماضية ، دخلت تقنية الذكاء الاصطناعي التوليدي السوق ، وبشكل كبير ، أبسط عملية إنشاء Deepfakes للمستهلك العادي. زادت هذه الابتكارات الجديدة من جودة Deepfakes ، بحيث في اختبار عمي ، لن يكون بمقدور معظم الناس التمييز بين الفيديو المزور والواقعي.
في هذا العام ، بدأنا نرى مؤشرات على كيفية تأثير هذه التكنولوجيا على المجتمع إذا لم تتخذ جهود لمكافحتها. في العام الماضي ، على سبيل المثال ، تم نشر صورة منشأة بواسطة الذكاء الاصطناعي لالبابا فرانسيس يرتدي سترة أنيقة بشكل غير عادي went viral ، واعتبره الكثيرون حقيقيا. بينما قد يبدو هذا ، على مستوى ما ، مثل قطعة من المرح ، يظهر قوة Deepfakes الخاطفة وأنه من الصعب احتواء المعلومات الخاطئة بعد أن بدأت في الانتشار. يمكننا أن نتوقع العثور على أمثلة أقل مرحًا – وأكثر خطورة – من هذا النوع من الخدع الفيروسية في الأشهر والسنوات القادمة.
لهذا السبب ، من الضروري أن تتخذ المنظمات من جميع الأنواع – من الإعلام إلى التمويل والحكومات ومنصات وسائل الإعلام الاجتماعية – موقفًا استباقيًا تجاه كشف Deepfakes وverification المحتوى. يجب إنشاء ثقافة من الثقة من خلال الحماية الآن ، قبل أن يغمر موجة من Deepfakes فهمنا المشترك للواقع.
فهم تهديد Deepfakes
قبل الغوص في ما يمكن للمنظمات القيام به لمكافحة هذا الارتفاع في Deepfakes ، من المفيد توضيح لماذا الأدوات الوقائية ضرورية. عادة ، يذكر أولئك الذين يخافون من Deepfakes تأثيرهم المحتمل على السياسة والثقة الاجتماعية. هذه العواقب المحتملة مهمة للغاية ولا ينبغي تجاهلها في أي محادثة حول Deepfakes. لكن كما يحدث ، فإن ظهور هذه التكنولوجيا له آثار محتملة خطيرة عبر قطاعات متعددة من اقتصاد الولايات المتحدة.
خذ التأمين ، على سبيل المثال. حاليًا ، يصل إجمالي الاحتيال التأميني السنوي في الولايات المتحدة إلى 308.6 مليار دولار – رقم يقارب ربع حجم الصناعة كلها. في الوقت نفسه ، تتم عمليات التشغيل الخلفية لمعظم شركات التأمين بدرجة متزايدة من التأتمت ، مع تقدير أن 70٪ من المطالبات القياسية ستكون بدون لمس بحلول عام 2025. هذا يعني أن القرارات يتم اتخاذها بتدخل بشري أقل: خدمة ذاتية في الجانب الأمامي وتأتمت مدعومة بالذكاء الاصطناعي في الجانب الخلفي.
بمعنى ما ، التكنولوجيا التي سمحت بزيادة التأتمت – أي التعلم الآلي والذكاء الاصطناعي – جعلت من السهل على الأفراد الخاطئين استغلالها. أصبح من السهل الآن على الشخص العادي التلاعب بالمطالبات – على سبيل المثال ، باستخدام برامج الذكاء الاصطناعي التوليدي مثل Dall-E ، Midjourney ، أو Stable Diffusion لجعل السيارة تبدو أكثر تلفًا مما هي عليه في الواقع. توجد بالفعل تطبيقات لهذا الغرض ، مثل Dude Your Car! ، الذي يسمح للمستخدمين بإنشاء ثقوب اصطناعية في صور سياراتهم.
نفس الشيء ينطبق على الوثائق الرسمية ، التي يمكن تعديلها بسهولة – مع فواتير وتقييمات التأمين والتواقيع المعدلة أو المخترعة بالكامل. هذه القدرة هي مشكلة ليس فقط للمؤمنين ولكن عبر الاقتصاد. إنه مشكلة للمؤسسات المالية ، التي يجب أن تتحقق من صحة مجموعة واسعة من الوثائق. إنه مشكلة للمتاجرين ، الذين قد يتلقون شكوى أن المنتج وصل معيب ، مصحوبًا بصورة مزورة.
لا يمكن للشركات العمل بدرجة من عدم اليقين هذه. من المحتمل أن يكون بعض الاحتيال دائمًا لا مفر منه ، لكن مع Deepfakes ، نحن لا نتحدث عن احتيال على الهامش – نحن نتحدث عن كارثة معرفية محتملة حيث لا تملك الشركات وسيلة واضحة لتحديد الحقيقة من الخيال ، وتنتهي بفقدان مليارات الدولارات بسبب هذا الارتباك.
مكافحة النار بالنار: كيف يمكن للذكاء الاصطناعي المساعدة
ماذا يمكن القيام به لمكافحة هذا؟ ربما لا ي驚 ، الجواب يكمن في التكنولوجيا نفسها التي تسهل Deepfakes. إذا كنا نريد إيقاف هذه الجائحة قبل أن تكتسب زخمًا أكبر ، نحن بحاجة لمكافحة النار بالنار. يمكن للذكاء الاصطناعي المساعدة في إنشاء Deepfakes – ولكنه يمكن أيضًا ،幸运ًا ، المساعدة في تحديدها تلقائيًا وبتصميم.
باستخدام الأدوات الصحيحة للذكاء الاصطناعي ، يمكن للشركات تحديد تلقائيًا ما إذا كانت الصورة أو الفيديو أو الوثيقة قد تم التلاعب بها. بإحضار عشرات النماذج المتنوعة لمهمة تحديد الوهم ، يمكن للذكاء الاصطناعي أن يخبر الشركات تلقائيًا ما إذا كانت الصورة أو الفيديو مشبوهًا. مثل الأدوات التي تنشرها الشركات لتحسين العمليات اليومية ، يمكن تشغيل هذه الأدوات في الخلفية دون إرهاق الموظفين الممتلئين أو أخذ الوقت بعيدًا عن المشاريع المهمة.
إذا تم تحديد الصورة على أنها محتملة التعديل ، يمكن إخطار الموظفين البشريين ، ويمكنهم تقييم المشكلة مباشرة ، مدعومين بالمعلومات المقدمة من الذكاء الاصطناعي. باستخدام تحليل العمق ، يمكن أن يخبر الشركات لماذا يعتقد أنه تم تزوير الصورة – مشيرًا ، على سبيل المثال ، إلى البيانات الوصفية المعدلة يدويا ، وجود صور متطابقة عبر الويب ، وتناقضات فوتوغرافية مختلفة ، إلخ.
لا شيء من هذا يقلل من التقدم الرائع الذي شهدهنا في تكنولوجيا الذكاء الاصطناعي التوليدي خلال السنوات القليلة الماضية ، والتي لها تطبيقات مفيدة ونتاجية عبر الصناعات. لكن قوة هذه التكنولوجيا الناشئة – ولا سيما بساطتها – تقريباً تضمن استغلالها من قبل أولئك الذين يريدون التلاعب بالمنظمات ، إما لتحقيق مكاسب شخصية أو لزرع الفوضى الاجتماعية.
المنظمات يمكن أن تحصل على أفضل ما في العالمين: فوائد الإنتاجية للذكاء الاصطناعي دون سلبيات Deepfakes الشائعة. لكن القيام بذلك يتطلب درجة جديدة من اليقظة ، خاصة بالنظر إلى حقيقة أن مخرجات الذكاء الاصطناعي التوليدي أصبحت أكثر إقناعًا وتفصيلاً وواقعية يومًا بعد يوم. كلما أسرع المنظمات في معالجة هذه المشكلة ، كلما استفادوا من فوائد عالم آلي بالكامل.












