Connect with us

في عام 2024 ، يصبح Deepfakes شائعا. هنا كيف يمكن للشركات حماية نفسها

قادة الفكر

في عام 2024 ، يصبح Deepfakes شائعا. هنا كيف يمكن للشركات حماية نفسها

mm

منذ الانتخابات الرئاسية عام 2016 على الأقل ، عندما ظهرت مخاوف حول المعلومات الخاطئة في الوعي العام ، كان الخبراء يصدرون إنذارات حول Deepfakes. كانت آثارهما – وما زالت – مخيفة. إن انتشار وسائل الإعلام الاصطناعية المتقدمة دون رقابة يهدد الجميع – من السياسيين إلى الناس العاديين. في بيئة قابلة للاشتعال بالفعل وتتميز بانتشار الشكوك ، وعدت Deepfakes بزيادة لهب المزيد.

كما اتضح ، كانت مخاوفنا مبكرة. المعرفة التكنولوجية المطلوبة لصنع Deepfakes ، بالإضافة إلى جودتها السيئة في كثير من الأحيان ، يعني أنهم ظلوا قلقًا طفيفًا خلال الدورتين الرئاسيتين السابقتين على الأقل.

لكن كل ذلك على وشك التغيير – يتغير بالفعل. خلال السنوات القليلة الماضية ، دخلت تقنية الذكاء الاصطناعي التوليدي السوق ، وبشكل كبير ، أبسط عملية إنشاء Deepfakes للمستهلك العادي. زادت هذه الابتكارات الجديدة من جودة Deepfakes ، بحيث في اختبار عمي ، لن يكون بمقدور معظم الناس التمييز بين الفيديو المزور والواقعي.

في هذا العام ، بدأنا نرى مؤشرات على كيفية تأثير هذه التكنولوجيا على المجتمع إذا لم تتخذ جهود لمكافحتها. في العام الماضي ، على سبيل المثال ، تم نشر صورة منشأة بواسطة الذكاء الاصطناعي لالبابا فرانسيس يرتدي سترة أنيقة بشكل غير عادي went viral ، واعتبره الكثيرون حقيقيا. بينما قد يبدو هذا ، على مستوى ما ، مثل قطعة من المرح ، يظهر قوة Deepfakes الخاطفة وأنه من الصعب احتواء المعلومات الخاطئة بعد أن بدأت في الانتشار. يمكننا أن نتوقع العثور على أمثلة أقل مرحًا – وأكثر خطورة – من هذا النوع من الخدع الفيروسية في الأشهر والسنوات القادمة.

لهذا السبب ، من الضروري أن تتخذ المنظمات من جميع الأنواع – من الإعلام إلى التمويل والحكومات ومنصات وسائل الإعلام الاجتماعية – موقفًا استباقيًا تجاه كشف Deepfakes وverification المحتوى. يجب إنشاء ثقافة من الثقة من خلال الحماية الآن ، قبل أن يغمر موجة من Deepfakes فهمنا المشترك للواقع.

فهم تهديد Deepfakes

قبل الغوص في ما يمكن للمنظمات القيام به لمكافحة هذا الارتفاع في Deepfakes ، من المفيد توضيح لماذا الأدوات الوقائية ضرورية. عادة ، يذكر أولئك الذين يخافون من Deepfakes تأثيرهم المحتمل على السياسة والثقة الاجتماعية. هذه العواقب المحتملة مهمة للغاية ولا ينبغي تجاهلها في أي محادثة حول Deepfakes. لكن كما يحدث ، فإن ظهور هذه التكنولوجيا له آثار محتملة خطيرة عبر قطاعات متعددة من اقتصاد الولايات المتحدة.

خذ التأمين ، على سبيل المثال. حاليًا ، يصل إجمالي الاحتيال التأميني السنوي في الولايات المتحدة إلى 308.6 مليار دولار – رقم يقارب ربع حجم الصناعة كلها. في الوقت نفسه ، تتم عمليات التشغيل الخلفية لمعظم شركات التأمين بدرجة متزايدة من التأتمت ، مع تقدير أن 70٪ من المطالبات القياسية ستكون بدون لمس بحلول عام 2025. هذا يعني أن القرارات يتم اتخاذها بتدخل بشري أقل: خدمة ذاتية في الجانب الأمامي وتأتمت مدعومة بالذكاء الاصطناعي في الجانب الخلفي.

بمعنى ما ، التكنولوجيا التي سمحت بزيادة التأتمت – أي التعلم الآلي والذكاء الاصطناعي – جعلت من السهل على الأفراد الخاطئين استغلالها. أصبح من السهل الآن على الشخص العادي التلاعب بالمطالبات – على سبيل المثال ، باستخدام برامج الذكاء الاصطناعي التوليدي مثل Dall-E ، Midjourney ، أو Stable Diffusion لجعل السيارة تبدو أكثر تلفًا مما هي عليه في الواقع. توجد بالفعل تطبيقات لهذا الغرض ، مثل Dude Your Car! ، الذي يسمح للمستخدمين بإنشاء ثقوب اصطناعية في صور سياراتهم.

نفس الشيء ينطبق على الوثائق الرسمية ، التي يمكن تعديلها بسهولة – مع فواتير وتقييمات التأمين والتواقيع المعدلة أو المخترعة بالكامل. هذه القدرة هي مشكلة ليس فقط للمؤمنين ولكن عبر الاقتصاد. إنه مشكلة للمؤسسات المالية ، التي يجب أن تتحقق من صحة مجموعة واسعة من الوثائق. إنه مشكلة للمتاجرين ، الذين قد يتلقون شكوى أن المنتج وصل معيب ، مصحوبًا بصورة مزورة.

لا يمكن للشركات العمل بدرجة من عدم اليقين هذه. من المحتمل أن يكون بعض الاحتيال دائمًا لا مفر منه ، لكن مع Deepfakes ، نحن لا نتحدث عن احتيال على الهامش – نحن نتحدث عن كارثة معرفية محتملة حيث لا تملك الشركات وسيلة واضحة لتحديد الحقيقة من الخيال ، وتنتهي بفقدان مليارات الدولارات بسبب هذا الارتباك.

مكافحة النار بالنار: كيف يمكن للذكاء الاصطناعي المساعدة

ماذا يمكن القيام به لمكافحة هذا؟ ربما لا ي驚 ، الجواب يكمن في التكنولوجيا نفسها التي تسهل Deepfakes. إذا كنا نريد إيقاف هذه الجائحة قبل أن تكتسب زخمًا أكبر ، نحن بحاجة لمكافحة النار بالنار. يمكن للذكاء الاصطناعي المساعدة في إنشاء Deepfakes – ولكنه يمكن أيضًا ،幸运ًا ، المساعدة في تحديدها تلقائيًا وبتصميم.

باستخدام الأدوات الصحيحة للذكاء الاصطناعي ، يمكن للشركات تحديد تلقائيًا ما إذا كانت الصورة أو الفيديو أو الوثيقة قد تم التلاعب بها. بإحضار عشرات النماذج المتنوعة لمهمة تحديد الوهم ، يمكن للذكاء الاصطناعي أن يخبر الشركات تلقائيًا ما إذا كانت الصورة أو الفيديو مشبوهًا. مثل الأدوات التي تنشرها الشركات لتحسين العمليات اليومية ، يمكن تشغيل هذه الأدوات في الخلفية دون إرهاق الموظفين الممتلئين أو أخذ الوقت بعيدًا عن المشاريع المهمة.

إذا تم تحديد الصورة على أنها محتملة التعديل ، يمكن إخطار الموظفين البشريين ، ويمكنهم تقييم المشكلة مباشرة ، مدعومين بالمعلومات المقدمة من الذكاء الاصطناعي. باستخدام تحليل العمق ، يمكن أن يخبر الشركات لماذا يعتقد أنه تم تزوير الصورة – مشيرًا ، على سبيل المثال ، إلى البيانات الوصفية المعدلة يدويا ، وجود صور متطابقة عبر الويب ، وتناقضات فوتوغرافية مختلفة ، إلخ.

لا شيء من هذا يقلل من التقدم الرائع الذي شهدهنا في تكنولوجيا الذكاء الاصطناعي التوليدي خلال السنوات القليلة الماضية ، والتي لها تطبيقات مفيدة ونتاجية عبر الصناعات. لكن قوة هذه التكنولوجيا الناشئة – ولا سيما بساطتها – تقريباً تضمن استغلالها من قبل أولئك الذين يريدون التلاعب بالمنظمات ، إما لتحقيق مكاسب شخصية أو لزرع الفوضى الاجتماعية.

المنظمات يمكن أن تحصل على أفضل ما في العالمين: فوائد الإنتاجية للذكاء الاصطناعي دون سلبيات Deepfakes الشائعة. لكن القيام بذلك يتطلب درجة جديدة من اليقظة ، خاصة بالنظر إلى حقيقة أن مخرجات الذكاء الاصطناعي التوليدي أصبحت أكثر إقناعًا وتفصيلاً وواقعية يومًا بعد يوم. كلما أسرع المنظمات في معالجة هذه المشكلة ، كلما استفادوا من فوائد عالم آلي بالكامل.

نيكوس فيكياريدس هو الرئيس التنفيذي والشريك المؤسس لشركة Attestiv. قضى过去 20 عامًا في مجال تكنولوجيا المعلومات والسحابة في الشركات، كمدير تنفيذي وريادي أعمال، يقدم تقنيات جديدة ومبتكرة إلى السوق. تم الاستحواذ على شركته الناشئة السابقة، TwinStrata، وهي شركة تخزين سحابي مبتكرة حيث رائد تخزين السحابة المتكامل للشركات، من قبل EMC في عام 2014. قبل ذلك، قام بإطلاق أول جهاز افتراضي لتخزين البيانات في الصناعة لشركة StorageApps، والتي تم الاستحواذ عليها لاحقًا من قبل HP.