قاده التفكير
كيف يربح المجرمون سباق التسلح في مجال الذكاء الاصطناعي قبل أن تبدأ الشركات حتى

في عصرٍ تُحدث فيه تقنيات الذكاء الاصطناعي تحولاً جذرياً في مختلف القطاعات بوتيرة غير مسبوقة، يُثير الجانب المظلم لهذه الثورة التكنولوجية قلقاً بالغاً. فبينما تتسابق الشركات للاستفادة من إمكانيات الذكاء الاصطناعي، يستغل مجرمو الإنترنت هذه التطورات، مُغيرين بذلك ديناميكيات الجريمة الإلكترونية والاحتيال.
تغيير اقتصاديات الجرائم الإلكترونية والاحتيال
يستخدم مجرمو الإنترنت نفس نماذج وتقنيات الذكاء الاصطناعي التي تستخدمها المؤسسات، وغالبًا ما يقومون بتكييفها في غضون أيام من إصدارها. ومن أوائل الأمثلة على ذلك سوء استخدام كان ذلك هو أتمتة حل CAPTCHA باستخدام ChatGPT-1، مما أظهر مدى سرعة قدرة النماذج التوليدية على تجاوز ضوابط الأمان الأساسية.
منذ ذلك الحين، انعكس كل تقدم كبير في مجال الذكاء الاصطناعي التوليدي بسرعة في تعديلات إجرامية، بما في ذلك توليد الصوت والفيديو بتقنية التزييف العميق التي تظهر على الفور تقريبًا على منصات الإنترنت المظلم. تسمح هذه الدورة المتسارعة المحتالين استغلال التقنيات المتطورة لصياغة عمليات احتيال مقنعة، مما يقوض التدابير الأمنية التقليدية.
في الربع الأول من عام 2025 وحده، أفادت التقارير أن عمليات الاحتيال التي تم تمكينها بتقنية التزييف العميق تسببت في أكثر من خسائر مالية بقيمة 200 مليون دولارلقد ارتفعت ربحية الجرائم الإلكترونية بشكل كبير، حيث سهّلت المنصات التي تقدم "الاحتيال كخدمة" على المجرمين تنفيذ مخططات معقدة تشمل الهويات الاصطناعية ومجموعات التصيد المتقدمة.
بينما تكافح الشركات لتوسيع نطاق قدراتها في مجال الذكاء الاصطناعي، يتسابق المجرمون إلى الأمام، ويبتكرون باستمرار ويستغلون الثغرات التي خلفتها أطر الأمن القديمة.
لماذا تفشل أطر الأمن السيبراني والثقة التقليدية في مواجهة الجهات الفاعلة المدعومة بالذكاء الاصطناعي؟
أثبتت تدابير الأمن السيبراني التقليدية، التي كانت توفر في السابق قدراً من الحماية، عدم كفايتها. فالأنظمة القديمة، التي تعتمد على القوائم السوداء، واختبارات التحقق من الهوية (CAPTCHA)، والمصادقة أحادية العامل، غير قادرة على مواجهة المشهد المتطور للهجمات المدعومة بالذكاء الاصطناعي. يستخدم المجرمون تقنية التزييف العميق التي يمكنها خداع الماسحات الضوئية البيومترية، والهويات الاصطناعية التي تتجاوز بسهولة بروتوكولات اعرف عميلك (KYC).
يتفاقم هذا الإخفاق بسبب حقيقة أن العديد من المؤسسات لا تزال تتعامل مع الأمن السيبراني كبند تكلفة بدلاً من كونه عنصراً أساسياً في البنية التحتية. ومع استثمار البنتاغون ملايين الدولارات لتوظيف قراصنة الذكاء الاصطناعي، تتضح الفجوة التكنولوجية جلياً. فبينما تنشغل الشركات بإجراءات الامتثال الشكلية، يستغل المجرمون الذكاء الاصطناعي لاستغلال نقاط الضعف البشرية، مثل هجمات التصيد الاحتيالي التي تحاكي اتصالات المسؤولين التنفيذيين.
كيف تبدو الهجمات "المعتمدة على الذكاء الاصطناعي" في الواقع؟
لقد تطورت أساليب الاحتيال الحديثة بشكل كبير لتتجاوز مخططات التصيد الاحتيالي السابقة. يقوم المهاجمون ببناء سلاسل احتيال معقدة تبدو شرعية في كل خطوة.
تخيل صباح يوم عمل عادي. الثلاثاء، الساعة 9:43 صباحًا، يتلقى المدير المالي بريدًا إلكترونيًا مصنفًا على أنه "عاجل"، ويبدو أنه مرسل من الرئيس التنفيذي. النبرة مألوفة، واللغة مطابقة لطلبات سابقة. تصل رسالة متابعة بعد دقائق عبر قناة مختلفة، تؤكد على الاستعجال. بحلول الساعة 11:00 صباحًا، تتم الموافقة على تحويل بنكي بملايين الدولارات، ولكن يُكتشف لاحقًا أنه موجه إلى حساب خارجي يتحكم فيه مهاجمون.
تُعدّ هذه الهجمات المُصممة خصيصاً للذكاء الاصطناعي تلاعباً نفسياً يستغل الثقة والسلطة. ويُبرز مدى تعقيد هذه العمليات ثغرةً في التدابير الأمنية الحالية، التي تعجز عن رصد الشذوذات السلوكية الدقيقة التي تُميّز عمليات الاحتيال الحديثة.
ما هي الأولويات الواقعية التي ينبغي على الشركات إعطاؤها قبل نشر المزيد من الذكاء الاصطناعي داخلياً؟
قبل التوسع في استخدام الذكاء الاصطناعي داخليًا، تحتاج الشركات إلى التريث وإعادة تقييم افتراضاتها بشأن الثقة. فقد كشف تسارع وتيرة الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي عن ثغرة هيكلية: لا تزال المؤسسات تدافع ضد تهديدات الماضي، بينما صُممت هجمات اليوم لتبدو مشروعة تلقائيًا.
1. يجب على الشركات إعادة النظر في كيفية تعريف المخاطر نفسها.
كانت مصفوفات المخاطر التقليدية تُبنى على أساس حالات الفشل مثل انقطاع الأنظمة، وتسريب البيانات، وانتهاكات السياسات. أما في عصر الذكاء الاصطناعي، فإن المخاطر تنبع بشكل متزايد من المحاكاة بدلاً من الأعطال. وبدلاً من السؤال "ما الذي يمكن أن يحدث خطأً؟"، من الأنسب السؤال "ما الذي يمكن أن يحدث؟" تم تزييفها بشكل مقنع"على نطاق واسع، وبسرعة تفوق قدرتنا على التفاعل."
تختلف الهويات المصطنعة وانتحال شخصيات المسؤولين التنفيذيين والروايات المُولّدة بواسطة الذكاء الاصطناعي عن التهديدات التقليدية: فهي تنتشر بسرعة أكبر، وتندمج في الأنشطة المشروعة، وتستغل الثقة بدلاً من الثغرات التقنية. وليس من المستغرب أن تحظى هذه المخاطر بأهمية أكبر وتظهر بشكل متكرر أكثر من سابقاتها غير المرتبطة بالذكاء الاصطناعي، إذ تتخفى في مجالات الأمن السيبراني والاحتيال ومخاطر السمعة والامتثال.
2. يجب على المنظمات أن تقبل أن الوقاية وحدها لم تعد كافية.
تقوم الشركات الكبرى الآن بتصنيف مخاطر الذكاء الاصطناعي إلى ثلاث طبقات دفاعية، والتي تتوافق مع برنامج AI Defender بنية معيارية:
- منع المخاطر - وهذا يشمل الآن توقع الهجمات التي تستغل ثقة الإنسان والمحتوى الذي يولده الذكاء الاصطناعي، وليس مجرد حظر التهديدات المعروفة.
- التحقق من الهوية باستخدام الذكاء الاصطناعي
- سلامة الجهاز والجلسة
- حماية الاتصالات التنفيذية
- الكشف عن التهديدات ومراقبتها يجمع هذا الأسلوب بين تحليل الشذوذ التقني ومراقبة السلوك والإعلام، مما يعكس حقيقة أن العديد من الهجمات الأصلية للذكاء الاصطناعي تظهر في أنماط الاتصال بدلاً من التعليمات البرمجية.
- مراقبة مستمرة للإشارات والشذوذات
- الكشف باستخدام الذكاء الاصطناعي مقابل الذكاء الاصطناعي
- رصد السرد الإعلامي
- التحقيق والتحديد – التركيز على إعادة بناء الأحداث، ونسب النوايا، وإنتاج أدلة قابلة للتنفيذ، مما يمكّن المؤسسات من الاستجابة بفعالية حتى عندما يتوسع نطاق الخداع بشكل أسرع من دفاعاتها الأولية.
- إمكانية تفسير تنبيهات الذكاء الاصطناعي
- إسناد النشاط المشبوه
- استخبارات مفتوحة المصدر من الدرجة الأولى
3. يجب على الشركات مواجهة البعد البشري للاحتيال الناتج عن الذكاء الاصطناعي.
لا يزال الموظفون يمثلون نقطة الدخول الرئيسية للهجمات الإلكترونية الحديثة، لكن طبيعة الاستغلال قد تغيرت. يتمثل أحد الأنماط الشائعة التي تُلاحظ بشكل متزايد في عمليات الاحتيال المدعومة بالذكاء الاصطناعي في التفاعلات التي تبدو داخلية بدلاً من الهجمات الخارجية. قد يتلقى الموظفون مكالمات فيديو قصيرة من جهة تبدو وكأنها قسم الموارد البشرية، تطلب "التحقق السريع من الهوية" لحل مشكلة في الرواتب. يبدو الوجه والصوت والعلامة التجارية أصلية. يبدو الطلب نفسه غير ضار، ولكنه يُمكّن في الخفاء من الاستيلاء على الحساب في وقت لاحق من ذلك اليوم.
يوضح هذا النوع من السيناريوهات كيف تستغل عمليات الاحتيال المدعومة بالذكاء الاصطناعي السياق والسلطة والتوقيت، وغالبًا ما تحاكي اتصالات المسؤولين التنفيذيين بدقة مثيرة للقلق. في هذا السياق، قد يصبح التدريب الأمني التقليدي مجرد إجراء شكلي للامتثال، يوفر الطمأنينة دون توفير حماية حقيقية.
لا يكمن التحدي في الوعي فحسب، بل في كيفية صياغة المشكلة.
أعد صياغة المشكلة (هذه هي الخطوة صفر)
النموذج الذهني القديم: "درب الموظفين على عدم ارتكاب الأخطاء".
نموذج عقلي جديد: "افترض أن الموظفين سيتم استهدافهم والتلاعب بهم واستخدامهم كسلاح".
التدريب ليس تعليماً.
التدريب هو تحصين + ذاكرة عضلية.
من خلال هذه العدسة، ما هي الفرق التي يجب تدريبها للتعرف على أنماط الاحتيال المتكررة؟
خمسة من أبرز أساليب الاحتيال باستخدام الذكاء الاصطناعي التي تمر عبر من خلال الموظفون – لا يتم إيقاف أي منهم بواسطة ملصقات التوعية:
| ناقلات | كيف يبدو الأمر في الواقع |
| انتحال السلطة | رسالة صوتية من الرئيس التنفيذي/المدير المالي، واتساب، زووم بتقنية التزييف العميق |
| فخاخ الطوارئ | "خمس دقائق"، "سري"، "على مستوى مجلس الإدارة" |
| اختطاف السياق | يعرف المحتال المشاريع الحقيقية، والأسماء، والتوقيت. |
| إساءة استخدام الإجراءات | "تجاوز هذا مرة واحدة فقط"، "عادي لاحقاً" |
| إساءة استخدام الثقة في الأدوات | "قال الذكاء الاصطناعي إنه لا بأس"، "النظام وافق بالفعل" |
4. تحتاج المنظمات إلى إعادة التفكير في معنى "الهوية" في عالم الواقع الاصطناعي.
مع تقويض الأصوات والفيديوهات المزيفة للثقة البيومترية، لا يمكن لأي عامل بمفرده إثبات الأصالة بشكل موثوق. ويتزايد اعتمادنا على تراكم العديد من المؤشرات الضعيفة بمرور الوقت، مثل السياق والاستمرارية والاتساق عبر الأجهزة والجلسات ونقاط البيانات الخارجية.
تكتسب البيانات المفتوحة والخارجية، التي طالما اعتُبرت ثانوية، أهمية استراتيجية متزايدة. فعند دمجها مع المؤشرات السلوكية الداخلية، تُساعد هذه البيانات في الإجابة على سؤال جوهري: هل هذه الهوية أو هذا الفعل منطقي في مختلف السياقات؟ في عالمٍ يُمكن فيه تزييف أي شيء تقريبًا، يُصبح التماسك أحد الركائز القليلة المتبقية للثقة.










