قاده التفكير
سباق تسلح الذكاء الاصطناعي: لماذا تتطلب سلامة المستهلك دفاعًا في الوقت الفعلي

إذا كان المحتال قادرًا على تسليح نموذج اللغة الكبير (LLM) لتوليد مليون رسالة تصيد فريدة من نوعها في ساعة واحدة، فلماذا لا نزال نخوض حرب الذكاء الاصطناعي مع تحديثات التوقيع بسرعة الإنسان؟
لم يعد صعود الذكاء الاصطناعي التوليدي تهديدًا نظريًا؛ بل أصبح حقيقة لا يمكن إنكارها، وهي أن مجرمي الإنترنت المنظمين قد استغلوا أدوات التعلم العميق لأتمتة وإتقان فن الهندسة الاجتماعية العريق. بالنسبة للمستهلك، كان لهذا التحول أثرٌ مدمرٌ ماليًا: فقد فرضت لجنة التجارة الفيدرالية الأمريكية (FTC) عقوباتٍ على شركاتٍ مثل فيسبوك وتويتر وتويتر. وذكرت أن خسائر المستهلكين بسبب عمليات الاحتيال ارتفعت إلى أكثر من 12.5 مليار دولار في عام 2024, قفزة بنسبة 25% عن عام 2023. ويؤكد هذا الرقم المذهل عصرًا جديدًا مثيرًا للقلق حيث تفشل تدابير الأمن التقليدية التي تعتمد على الإنسان في مواجهة التهديدات التي يقودها الذكاء الاصطناعي.
يتطلب تعقيد هذه الاحتيالات الجديدة استراتيجيةً قتاليةً جديدة. يجب أن نتجاوز نموذج الأمن التفاعلي، والمسح الضوئي القائم على التوقيعات، ومرشحات الكلمات المفتاحية البسيطة، وحلول الأمن "المُضافة"، وأن نعتمد نفس الذكاء الاصطناعي السلوكي الفوري الذي يحمي بالفعل بنيتنا التحتية الرقمية الأكثر أهمية.
الواقع الجديد لعمليات الاحتيال المدعومة بالذكاء الاصطناعي
لقد خفّض الذكاء الاصطناعي التوليدي من مستوى الجرائم الإلكترونية، وفي الوقت نفسه، زاد من مصداقية المحتوى الخبيث. أصبح بإمكان المحتالين الآن تنفيذ حملات مُخصصة للغاية وواسعة النطاق، تُحاكي تمامًا الأفراد والمؤسسات الموثوقة.
ومن أبرز الأمثلة على هذا التصعيد ما يلي:
انتحال الشخصية واستنساخ الصوت بتقنية Deepfake
لقد تم إتقان عملية الاحتيال الكلاسيكية، حيث يتظاهر المجرم بأنه أحد أفراد أسرته في محنة أو أحد كبار المديرين التنفيذيين، بواسطة الذكاء الاصطناعي.
- الرئيس التنفيذي والمدير التنفيذي Deepfakes: في قضايا احتيال شركات بارزة، استُخدمت مقاطع فيديو وصوت مُزيفة بعمق لانتحال شخصيات كبار المديرين التنفيذيين خلال مكالمات الفيديو، مما أقنع موظفي المالية بالموافقة على تحويلات مصرفية بملايين الدولارات. بتدريب الذكاء الاصطناعي على مقطع قصير من صوت أحد المديرين التنفيذيين أو فيديو عام، يستطيع المجرمون إنشاء صوت وفيديو فوريين شبه مثاليين، يتجاوزان أقوى دفاعات الضحية: أعينهم وآذانهم.
- عمليات الاحتيال في العملات المشفرة المزيفة: على منصات المستهلكين، تُستخدم مقاطع فيديو مزيفة لمشاهير مثل إيلون ماسك بشكل متكرر في "مضاعفة عملات البيتكوين الخاصة بك" الحيليُظهر مقطع الفيديو المُزيّف، الذي يُبثّ مباشرةً على منصة مُخترقة، المشاهير وهم يُؤيّدون حملة احتيالية لتوزيع عملات مشفرة، ما أدى إلى خسائر فادحة بالملايين. هذه الفيديوهات مُقنعة للغاية لدرجة أنها تُخدع الضحايا من خلال الحفاظ على التواصل البصري أثناء عملية الترويج.
التصيد الاحتيالي عبر المحادثات شديدة التخصيص
نجح الذكاء الاصطناعي التوليدي في القضاء على العلامات الدالة على عملية الاحتيال الكلاسيكية "الأمير النيجيري": القواعد النحوية الرديئة، والعبارات الأجنبية، والتحية العامة.
- التصيد الاحتيالي المتعدد الأشكال على نطاق واسع: يستخدم المهاجمون LLMs (بما في ذلك البرامج غير المشروعة مثل FraudGPT) لجمع البيانات العامة، وملفات تعريف LinkedIn، ومنشورات مواقع التواصل الاجتماعي، ومواقع الشركات الإلكترونية، بهدف إنشاء ملف مفصل عن الهدف. ثم يُنشئ الذكاء الاصطناعي بريدًا إلكترونيًا يُحاكي أسلوب ومفردات زميل أو رئيس، مُشيرًا إلى مشاريع حقيقية أو جهات اتصال مشتركة. يُشار إلى هذا غالبًا باسم التصيد الاحتيالي متعدد الأشكال، لأن الذكاء الاصطناعي قادر على توليد ملايين رسائل البريد الإلكتروني المتنوعة بعض الشيء، والفريدة، والمتوافقة مع السياق، مما يجعل اكتشافها شبه مستحيل على مُرشِّحات البريد الإلكتروني التقليدية القائمة على التوقيع.
- عمليات الاحتيال الرومانسية المدعومة بالذكاء الاصطناعي (ذبح الخنازير): يتيح استخدام روبوتات الدردشة الذكية للمحتالين إدارة مئات من ملفات تعريف المواعدة المزيفة في آنٍ واحد. يُبقي الذكاء الاصطناعي على محادثات دقيقة ومُتلاعبة عاطفيًا لفترات طويلة لبناء الثقة، وهي تقنية تُعرف باسم "التلاعب بالألفاظ". يتيح التواصل السلس والقدرة على سد الفجوات اللغوية للمحتالين التواصل مع الضحايا بشكل أعمق قبل تحويل المحادثة إلى مخططات استثمارية احتيالية، مما يؤدي إلى بعض من أكبر الخسائر المالية المتوسطة لكل ضحية.
الخلل القاتل في الأمن التقليدي
يعود نجاح عمليات الاحتيال المدعومة بالذكاء الاصطناعي إلى أن إجراءات الأمن السيبراني التقليدية لم تُصمَّم لبيئة تهديدات عالية السرعة ومنخفضة الحجم. فهي تعمل بناءً على مجموعة من الافتراضات القديمة:
1. الاعتماد على التوقيعات والتهديدات المعروفة
تعتمد برامج مكافحة الفيروسات وبرامج الأمان التقليدية على قاعدة بيانات للتهديدات المعروفة أو "التوقيعات". عندما يستخدم المهاجم الذكاء الاصطناعي لتوليد بريد إلكتروني جديد وفريد، أو نسخة جديدة من البرامج الضارة، أو فيديو مُزيّف بعمق لم يُشاهد من قبل، لا يمتلك نظام الأمان توقيعًا مسبقًا للكشف عنه. وبحلول الوقت الذي يُنشأ فيه التوقيع الجديد ويُوزّع، تكون عملية الاحتيال قد انتقلت بالفعل إلى نسختها متعددة الأشكال التالية. هذا النموذج التفاعلي بطيء جدًا بالنسبة لسرعة الذكاء الاصطناعي المُولّد.
2. الافتقار إلى الوعي السلوكي والسياقي
تُعامل العديد من الأنظمة القديمة الأمان كفحص معاملاتي معزول. على سبيل المثال، قد يتحقق مُرشِّح أساسي مما إذا كان البريد الإلكتروني يحتوي على كلمة "فاتورة" أو "عاجل". وتُعد الهندسة الاجتماعية المُدارة بالذكاء الاصطناعي ناجحة تحديدًا لأنها تُركز على سلوكليس فقط الكلمات المفتاحية. تبدو رسائل التصيد الاحتيالي المعقدة شرعية، ومقاطع الفيديو المزيفة تبدو وكأنها الشخص الذي تدّعي أنه هو. الأدوات التقليدية لا تملك القدرة على تحديد سلوك المستخدم أو الشبكة، وما يُعتبر "طبيعيًا"، وبالتالي لا يمكنها تحديد السلوكيات الدقيقة. شاذ سلوك يشير إلى أن عملية احتيال قيد التنفيذ.
3. الخطأ البشري كنقطة ضعف أساسية
غالبًا ما يكون المستخدم البشري هو خط الدفاع الأخير في الأمن التقليدي، وهو تحديدًا ما صُمم جانب الهندسة الاجتماعية في احتيال الذكاء الاصطناعي لاستغلاله. يُعد تدريب المستخدمين على اكتشاف الاحتيال وسيلةً فعالةً للتخفيف من حدته، ولكنه ليس نظام كشف. فعندما يُسمع صوتٌ مُزيفٌ يُشبه صوت طفلهم تمامًا وهو يطلب المساعدة، أو عندما تبدو رسالة بريد إلكتروني سليمة لغويًا من رئيسهم التنفيذي، فإن التدريب البشري لا يُضاهي التلاعب العاطفي والسياقي الذي يُحدثه الذكاء الاصطناعي.
البديل الاستباقي: الكشف عن التهديدات في الوقت الفعلي باستخدام الذكاء الاصطناعي
الحل هو محاربة الذكاء الاصطناعي بالذكاء الاصطناعي. وكما تم دمج الذكاء الاصطناعي التوليدي في عملية الهجوم، يتم بالفعل نشر نماذج التعلم الآلي الآني ودمجها في منصات رئيسية للمستهلكين والشركات للكشف الاستباقي عن أي شذوذ سلوكي. يوفر هذا الدفاع المدمج الآني نموذجًا للجيل القادم من سلامة المستهلك.
تستخدم الشركات والمنصات الكبرى هذه النماذج التي تعتمد على الذكاء الاصطناعي من أجل:
- الكشف عن الاحتيال المالي: تستخدم المؤسسات المالية الكبيرة تحليلات السلوك المدعومة بالذكاء الاصطناعي لمراقبة أنماط تسجيل الدخول، وحالات الشذوذ في المعاملات، وبصمات الأجهزة في الوقت الفعلي. إذا بدأ مستخدم فجأةً تحويلًا كبيرًا وغير نمطي من جهاز أو موقع جديد غير مسجل، الذكاء الاصطناعي يشير إلى الشذوذ للمراجعة الفورية، ووقف الاحتيال في كثير من الأحيان قبل خسارة الأموال.
- تصفية البريد الإلكتروني والمحتوى: على سبيل المثال، يُعالج Gmail من جوجل ملايين رسائل التصيد الاحتيالي ويحظرها يوميًا باستخدام نماذج التعلم الآلي لتحليل محتوى الرسائل، وسجل المُرسِل، وحتى أسلوب الكتابة. لا تعتمد هذه النماذج على التوقيع؛ بل تتعرف على نوع البريد الإلكتروني الشرعي. يبدو و الأصوات مثل جعلها فعالة للغاية في تحديد محاولات التصيد الاحتيالي الدقيقة والمحددة بالسياق.
- إدارة محتوى وسائل التواصل الاجتماعي: تستخدم منصات مثل Meta معالجة اللغة الطبيعية (NLP) والتعلم الآلي للكشف عن المحتوى الضار والحسابات المزيفة والاستجابة لها في الوقت الفعلي، وتتجاوز عمليات البحث البسيطة عن الكلمات الرئيسية لفهم سياق ونية الاتصال.
القاسم المشترك بين هذه الأمثلة هو الانتقال من دفاع سلبي قائم على التوقيع إلى تحليل سلوكي فعال آني. هذه هي الطبقة المفقودة الحرجة في النظام البيئي العام للمستهلكين والعائلات، والذي لا يزال يعتمد بشكل كبير على أدوات قديمة.
الحل ليس تركيب مزلاج رقمي آخر بعد سرقة المنزل، بل نظام إنذار متكامل يلتقط صوت خطواتك. سيأتي هذا الحل من أنظمة أمنية ذكية؛ أنظمة تستخدم الذكاء الاصطناعي الفوري لتحديد مستوى "طبيعي" لسلوك المستخدم، وأنماط التواصل، والتفاعلات الرقمية. هذه هي الطريقة الوحيدة لرصد الثغرات الدقيقة، وإن كانت حاسمة، الناتجة عن انتحال شخصية مزيف أو محاولة تصيد احتيالي مفرطة التخصيص قبل نجاح عملية الاحتيال. من خلال دمج الذكاء الاصطناعي للتحليل المستمر الفوري، يمكننا أخيرًا بناء دفاع للمستهلك يواكب التطور المخيف للهجمات المتطورة التي يقودها الذكاء الاصطناعي.












