اتصل بنا للحصول على مزيد من المعلومات

الذكاء الاصطناعي

التزييف العميق والذكاء الاصطناعي: رؤى من تقرير Pindrop للاستخبارات الصوتية والأمن لعام 2024

mm
تحديث on

أدى التقدم السريع في الذكاء الاصطناعي (AI) إلى تحقيق فوائد كبيرة وتغييرات تحويلية في مختلف الصناعات. ومع ذلك، فقد أدخلت أيضًا مخاطر وتحديات جديدة، خاصة عندما يتعلق الأمر احتيال و أمن. Deepfakesمنتج من الذكاء الاصطناعي التوليدي، أصبحت متطورة بشكل متزايد وتشكل تهديدًا كبيرًا لسلامة أنظمة الأمن القائمة على الصوت.

النتائج من تقرير Pindrop للاستخبارات الصوتية والأمنية لعام 2024، وتسليط الضوء على تأثير التزييف العميق على مختلف القطاعات، والتقدم التكنولوجي الذي يقود هذه التهديدات، والحلول المبتكرة التي يتم تطويرها لمكافحتها.

صعود التزييف العميق: سيف ذو حدين

تستخدم تقنية التزييف العميق تقنية متقدمة خوارزميات التعلم الآلي لخلق واقعية للغاية محتوى الصوت والفيديو الاصطناعية. وفي حين أن لهذه التقنيات تطبيقات مثيرة في مجال الترفيه والوسائط، إلا أنها تمثل أيضًا تحديات أمنية خطيرة. وفقًا لتقرير Pindrop، فإن المستهلكين الأمريكيين هم الأكثر قلقًا بشأن مخاطر التزييف العميق واستنساخ الصوت في القطاع المصرفي والمالي، حيث أعرب 67.5% عن قلقهم الكبير.

التأثير على المؤسسات المالية

المؤسسات المالية معرضة بشكل خاص لهجمات التزييف العميق. يستخدم المحتالون الأصوات التي يولدها الذكاء الاصطناعي لانتحال شخصية الأفراد، والوصول غير المصرح به إلى الحسابات، والتلاعب بالمعاملات المالية. ويكشف التقرير عن وجود عدد قياسي من اختراقات البيانات في عام 2023، بإجمالي 3,205 حوادث - بزيادة قدرها 78% عن العام السابق. ويبلغ متوسط ​​تكلفة اختراق البيانات في الولايات المتحدة الآن 9.5 مليون دولار، وتتحمل مراكز الاتصال العبء الأكبر من التداعيات الأمنية.

إحدى الحالات البارزة تتعلق باستخدام أ صوت مزيف لخداع شركة مقرها هونج كونج لتحويل 25 مليون دولار، مما يسلط الضوء على الإمكانات المدمرة لهذه التقنيات عند استخدامها بشكل ضار.

تهديدات أوسع لوسائل الإعلام والسياسة

أبعد من الخدمات المالية، تشكل تقنية التزييف العميق أيضًا مخاطر كبيرة على وسائل الإعلام والمؤسسات السياسية. ويمكن استخدام القدرة على إنشاء محتوى صوتي ومرئي مزيف ومقنع لنشر معلومات مضللة، والتلاعب بالرأي العام، وتقويض الثقة في العمليات الديمقراطية. ويشير التقرير إلى أن 54.9% من المستهلكين يشعرون بالقلق إزاء تهديد التزييف العميق للمؤسسات السياسية، بينما يشعر 54.5% بالقلق بشأن تأثيرها على وسائل الإعلام.

في عام 2023، تورطت تقنية التزييف العميق في العديد من الحوادث البارزة، بما في ذلك هجوم robocall استخدم صوتًا اصطناعيًا للرئيس بايدن. وتؤكد مثل هذه الحوادث الحاجة الملحة إلى تطوير آليات قوية للكشف والوقاية.

التقدم التكنولوجي يقود التزييف العميق

وقد أدى انتشار أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT من OpenAI، وBard من Google، وBing AI من Microsoft، إلى خفض الحواجز التي تحول دون إنشاء التزييف العميق بشكل كبير. اليوم، يتم استخدام أكثر من 350 نظامًا مولدًا للذكاء الاصطناعي لتطبيقات مختلفة، بما في ذلك Eleven Labs وDescript وPodcastle وPlayHT وSpeechify. على سبيل المثال، يمكن لنموذج VALL-E من Microsoft استنساخ الصوت من مقطع صوتي مدته ثلاث ثوانٍ فقط.

جعلت هذه التطورات التكنولوجية إنتاج التزييف العميق أرخص وأسهل، مما زاد من إمكانية الوصول إليه لكل من المستخدمين الحميدين والجهات الفاعلة الخبيثة. بحلول عام 2025، تتوقع جارتنر أن 80% من عروض الذكاء الاصطناعي للمحادثة سوف تتضمن الذكاء الاصطناعي التوليدي، ارتفاعًا من 20% في عام 2023.

مكافحة التزييف العميق: ابتكارات Pindrop

ولمواجهة التهديد المتزايد للتزييف العميق، قدمت Pindrop العديد من الحلول المتطورة. واحدة من أبرزها هو ضمان نبض التزييف العميق، وهو ضمان هو الأول من نوعه يعوض العملاء المؤهلين إذا فشلت مجموعة منتجات Pindrop في اكتشاف التزييف العميق أو أي احتيال صوتي اصطناعي آخر. تهدف هذه المبادرة إلى توفير راحة البال للعملاء مع الارتقاء بقدرات الكشف عن الاحتيال.

الحلول التكنولوجية لتعزيز الأمن

يسلط تقرير Pindrop الضوء على فعالية تقنية الكشف عن الحيوية، التي تحلل المكالمات الهاتفية الحية بحثًا عن ميزات طيفية زمنية تشير إلى ما إذا كان الصوت في المكالمة "حيًا" أم اصطناعيًا. في الاختبار الداخلي، وجد أن حل Pindrop للكشف عن الحيوية أكثر دقة بنسبة 12% من أنظمة التعرف على الصوت وأكثر دقة بنسبة 64% من البشر في التعرف على الأصوات الاصطناعية.

بالإضافة إلى ذلك، يستخدم Pindrop منع الاحتيال والمصادقة المتكاملة متعددة العوامل، مع الاستفادة من الصوت والجهاز والسلوك وبيانات تعريف الناقل وإشارات الحيوية لتعزيز الأمان. يؤدي هذا النهج متعدد الطبقات إلى رفع مستوى المحتالين بشكل كبير، مما يزيد من صعوبة نجاحهم.

الاتجاهات المستقبلية والاستعداد

واستشرافا للمستقبل توقعات التقرير سيستمر الاحتيال العميق في الارتفاع، مما يشكل خطرًا بقيمة 5 مليارات دولار على مراكز الاتصال في الولايات المتحدة وحدها. إن التطور المتزايد لأنظمة تحويل النص إلى كلام، بالإضافة إلى تكنولوجيا الكلام الاصطناعية منخفضة التكلفة، يمثل تحديات مستمرة.

للبقاء في صدارة هذه التهديدات، توصي Pindrop باستخدام تقنيات الكشف المبكر عن المخاطر، مثل الكشف عن انتحال هوية المتصل والكشف المستمر عن الاحتيال، لمراقبة الأنشطة الاحتيالية والتخفيف منها في الوقت الفعلي. ومن خلال تنفيذ هذه التدابير الأمنية المتقدمة، يمكن للمؤسسات حماية نفسها بشكل أفضل ضد المشهد المتطور للاحتيال القائم على الذكاء الاصطناعي.

وفي الختام

يمثل ظهور التزييف العميق والذكاء الاصطناعي المولد تحديًا كبيرًا في مجال الاحتيال والأمن. يؤكد تقرير Pindrop للاستخبارات الصوتية والأمنية لعام 2024 على الحاجة الملحة إلى حلول مبتكرة لمكافحة هذه التهديدات. مع التقدم في اكتشاف الحيوية، والمصادقة متعددة العوامل، والاستراتيجيات الشاملة لمنع الاحتيال، تعد Pindrop في طليعة الجهود المبذولة لتأمين مستقبل التفاعلات الصوتية. مع استمرار تطور المشهد التكنولوجي، يجب أيضًا أن تتطور أساليبنا لضمان الأمن والثقة في العصر الرقمي.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.