Connect with us

هل تستعد الشركات لموجة جديدة من الهجمات الإلكترونية التي تعتمد على الذكاء الاصطناعي؟

الأمن السيبراني

هل تستعد الشركات لموجة جديدة من الهجمات الإلكترونية التي تعتمد على الذكاء الاصطناعي؟

mm

يسمح تحليل الاتجاهات الحالية للخبراء بتوقع كيف سيستخدم المجرمون الإلكترونيون الذكاء الاصطناعي في المستقبل. مع هذه المعلومات ، يمكنهم تحديد أكبر Threats الناشئة وتحديد ما إذا كانت الشركات مستعدة. قد يكونوا قادرين حتى على تحديد حل.

حالة التهديدات التي تعتمد على الذكاء الاصطناعي في السنوات الأخيرة

على الرغم من أن технологيا الذكاء الاصطناعي حديثة相对ًا ، إلا أنها أصبحت بالفعل أداة بارزة للمخترقين. تشير هذه الاتجاهات إلى أن الهجمات الإلكترونية التي تعتمد على الذكاء الاصطناعي في زيادة.

1. تعديل النموذج

من خلال استهداف نماذج اللغة الكبيرة (LLMs) مباشرة ، يمكن للمجرمين الإلكترونيين تحديد سلوك النموذج ، وتقليل دقة الإخراج أو كشف بيانات تعريف شخصية للتدريب. تعتبر تسميم البيانات و هندسة التحفيز تقنيات هجوم شائعة.
تتم بعض الهجمات من قبل مجرمين إلكترونيين يهدفون إلى إحداث الفوضى أو سرقة معلومات حساسة. بينما يتم إدارة البعض الآخر من قبل فنانين غير راضين يريدون حماية أعمالهم الفنية من حصد الذكاء الاصطناعي. في كلتا الحالتين ، تتأثر الشركة ومستخدميها النهائيون بشكل سلبي.

2. هجمات التمثيل

في عام 2024 ، تلقى أحد مسؤولي شركة فيراري عدة رسائل على تطبيق WhatsApp من الرئيس التنفيذي ، بينيديتو فيغنا. تحدث عن استحواذ قادم وحث موظفيه على التوقيع على اتفاقية عدم إفصاح. حتى اتصل لمناقشة التمويل. كان هناك مشكلة واحدة – لم يكن هو.
كان Deepfake قريبًا من الكمال ، حيث قام بتقليد لهجة فيغنا الجنوبية الإيطالية بشكل استثنائي. ومع ذلك ، فإن الاختلافات الطفيفة في الصوت أشار إلى أن الموظف إلى الاحتيال. سأل الموظف عن عنوان كتاب أوصى به فيغنا قبل أيام ، سؤال يعرف الجواب فقط الرئيس التنفيذي الحقيقي. ثم انقطع المتصل.
يمكن للذكاء الاصطناعي استنساخ صوت شخص ، وسلوك التصفح ، وأسلوب الكتابة ، وملامحهم. مع تقدم هذه التكنولوجيا ، يصبح من الصعب بشكل متزايد تحديد Deepfakes. غالبًا ما يضع المخترقون الهدف في وضع استعجالي لمنعهم من التشكيك في التناقضات الصغيرة.

3. صيد السمك الإلكتروني الذي يعمل بالذكاء الاصطناعي

في الماضي ، يمكن لشخص تحديد رسالة بريد إلكتروني احتيالية من خلال البحث عن قواعد نحوية سيئة ، وروابط مشبوهة ، ورسائل جينية ، وطلبات غير مناسبة. الآن ، مع تكنولوجيا معالجة اللغة الطبيعية ، يمكن للمخترقين صياغة رسائل مقنعة ذات قواعد نحوية مثالية.
وجد الباحثون أن رسائل البريد الإلكتروني الموجه التي تعمل بالكامل آليًا والتي تعمل بالذكاء الاصطناعي معدل النقر بنسبة 54٪ ، وهو ما يعادل معدل النقر لرسائل البريد الإلكتروني الاحتيالية المكتوبة من قبل البشر. منذ أن أصبحت هذه الاحتيالات أكثر اقناعًا ، أصبحت شائعة بشكل متزايد. وجدت الدراسات أن أكثر من 80٪ من رسائل البريد الإلكتروني الاحتيالية تظهر أدلة على مشاركة الذكاء الاصطناعي.

4. الهندسة الاجتماعية

ت涉ل الهندسة الاجتماعية في تحريض شخص ما على اتخاذ إجراء أو إفشاء معلومات. يتيح الذكاء الاصطناعي للمخترقين الاستجابة بشكل أسرع و صياغة رسائل أكثر اقناعًا. يمكن لأي نموذج معالجة لغة طبيعية إجراء تحليل دلالي لتحديد حالة المستلم العاطفية ، مما يجعله أكثر احتمالا للاستسلام.
إضافة إلى تعزيز تقنيات الهندسة الاجتماعية ، تقلل تكنولوجيا التعلم الآلي من الحواجز التقليدية للENTRY ، مما يتيح للمبتدئين تنفيذ حملات متقدمة. إذا كان أي شخص يمكن أن يصبح مجرما إلكترونيا ، يمكن لأي شخص أن يصبح هدفا.

موجة الهجمات الإلكترونية التي تعتمد على البيانات والذكاء الاصطناعي القادمة

في بداية عام 2026 ، من المتوقع أن تبقى الهجمات التي تعتمد على الذكاء الاصطناعي على مستوى نضج منخفض. ومع ذلك ، سوف تتطور بشكل كبير مع تقدم العام ، مما يسمح للمجرمين الإلكترونيين بالدخول إلى مراحل التحسين و النشر و التوسع. سوف يكونون قادرون قريبا على إطلاق حملات completamente آلي.
البرمجيات الخبيثة المتعددة الشكل هي فيروس مدعوم بالذكاء الاصطناعي يمكنه تغيير شفرته كل مرة يكررها لتجنب الكشف. يمكن للمهاجمين توصيل الحمولة من خلال أنظمة الذكاء الاصطناعي ، أو استدعاء LLMs في وقت التشغيل لتوليد أوامر أو دمج الفيروس مباشرة في LLM. اكتشف فريق استخبارات التهديدات في جوجل أن الأعداء نشر هذا الفيروس لأول مرة في عام 2025.
عوائل الفيروسات هي PROMPTFLUX و PROMPTSTEAL. أثناء التنفيذ ، يستخدمون LLMs لطلب تقنيات التعتيم و التهرب من VBScript. هم تجنب الكشف القائم على التوقيع من خلال تعتيم شفرتهم الخاصة عند الطلب.
تشير الأدلة إلى أن هذه Threats لا تزال في مرحلة الاختبار – بعض الميزات غير المكتملة محظورة ، والنداءات البرمجية محدودة. قد لا تزال عائلات الفيروسات التي تعمل بالذكاء الاصطناعي هذه قيد التطوير ، ولكن وجودها يمثل خطوة كبيرة إلى الأمام في اتجاه تقنيات الهجوم المستقلة و الديناميكية.
تظهر أبحاث NYU Tandon أن LLMs يمكنها بالفعل تنفيذ هجمات الفدية بشكل مستقل ، والتي تسمى Ransomware 3.0. يمكنهم إجراء استكشاف ، و توليد حمولات ، و تخصيص الابتزاز بدون تدخل بشري. يتطلب فقط تحفيزات لغة طبيعية متضمنة في الثنائي. ينتج النموذج متغيرات متعددة الشكل تكيفت مع بيئة التنفيذ عن طريق توليد الشفرة الخبيثة بشكل ديناميكي في وقت التشغيل.

هل تستعد الشركات لمواجهة الهجمات التي تعتمد على الذكاء الاصطناعي؟

على الرغم من إنفاق مليارات على أمن السيبرانية ، تواصل الشركات الخاصة كفاحها للاحتفاظ بالتماسك مع مشهد التهديدات المتطور. يمكن لتكنولوجيا التعلم الآلي جعل برامج الكشف و الاستجابة الحالية عفا عليها الزمن ، مما يزيد من تعقيد الدفاع. لا يساعد على أن العديد من الشركات فشلت في تحقيق معايير الأمن الأساسية.
أجرى تقرير DIB Cybersecurity Maturity لعام 2024 استطلاعًا لآراء 400 محترف في تكنولوجيا المعلومات في قاعدة الصناعة الدفاعية الأمريكية (DIB). أفاد أكثر من نصف المستجيبين بأنهم بعيدون عن الامتثال لشهادة نموذج النضج الأمني السيبراني (CMMC) 2.0 ، على الرغم من أن الامتثال المكافئ ل NIST 800-171 قد تم تحديده في عقود وزارة الدفاع (DoD) منذ عام 2016. يعتبر العديد منهم أن أمنهم أفضل مما هو عليه في الواقع.
دخلت متطلبات CMMC الجديدة حيز التنفيذ في 10 نوفمبر ، 2025. في المستقبل ، جميع عقود وزارة الدفاع ستتطلب بعض مستويات الامتثال ل CMMC كشرط للفوز بالعقد. تهدف القواعد الجديدة إلى تعزيز أمن السيبرانية في DIB ، ولكن هل سوف تكون فعالة في عصر الذكاء الاصطناعي؟

هل الدفاع عن الذكاء الاصطناعي هو الجواب؟

قد يكون مكافحة النار بالنار هو الطريقة الوحيدة لمواجهة الارتفاع الحتمي في الهجمات التي تعتمد على الذكاء الاصطناعي. مع الدفاع عن الذكاء الاصطناعي ، يمكن للمنظمات الاستجابة ديناميكيا للتهديدات في الوقت الفعلي. ومع ذلك ، يأتي هذا النهج مع عيوب أمنية خاصة به – سوف يتطلب تأمين النموذج ضد التلاعب إشرافًا مستمرًا و تدقيقًا.
وفقًا لمراجعة هارفارد للأعمال ، تترك الحلول التقليدية الشركات عرضة للهجمات الإلكترونية التي تعتمد على الذكاء الاصطناعي. لتحقيق متانة السيبرانية ، يجب عليهم استخدام تكنولوجيا التعلم الآلي للتنبؤ والاستجابة تلقائيًا للتهديدات.
لا يوجد جواب بسيط حول ما إذا كان الدفاع عن الذكاء الاصطناعي هو الحل لهذا المشكل. هل يجب على الشركات إنفاق مواردها في نشر أدوات التعلم الآلي غير المثبتة أو توسيع فرق تكنولوجيا المعلومات الخاصة بهم؟ من المستحيل توقع أي استثمار سوف يؤتي ثماره في المستقبل.
قد ترى الشركات الكبيرة عوائد كبيرة مع أمان السيبرانية الآلي ، بينما قد يجد الشركات الصغيرة صعوبة في تبرير التكلفة. قد تكون تكنولوجيا الأتمتة التقليدية قادرة على سد الفجوة بسعر أقل بكثير ، ولكنها لن تكون قادرة على الاستجابة للتهديدات الديناميكية.
يصرح ستيف دوربين ، الرئيس التنفيذي لمؤسسة أمن المعلومات ، أن اعتماد الذكاء الاصطناعي له فوائد كبيرة ، ولكنه也有 عيوبًا كبيرة. على سبيل المثال ، قد تواجه الشركات زيادة في تنبيهات الإيجابية الكاذبة ، مما يضيع وقت فرق الأمن. بالإضافة إلى ذلك ، يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى جعل الفرق أكثر ثقة ، مما يؤدي إلى ثغرات أمنية.

ملاحة مشهد التهديدات التي تعتمد على الذكاء الاصطناعي

من المستحيل تحديد مدى وجود الذكاء الاصطناعي في مشهد التهديدات بدقة ، لأن المهاجمين يمكنهم استخدامه لإنشاء شفرة خبيثة أو صياغة رسائل بريد إلكتروني احتيالية ، بدلاً من استخدامه في وقت التشغيل. قد يكون المخترقون المنفردين أو مجموعات التهديدات المدعومة من الدولة يستخدمونها على نطاق واسع.
استنادًا إلى المعلومات المتاحة ، سوف تكون تعديل النموذج و صيد السمك الإلكتروني الذي يعمل بالذكاء الاصطناعي و البرمجيات الخبيثة المتعددة الشكل أكبر تهديدات إلكترونية في عام 2026. من المحتمل أن يستمر المجرمون الإلكترونيون في استخدام LLMs لتوليد و توصيل و تعديل حمولات خبيثة ، مستهدفين صناعات عالية القيمة مثل التمويل ، بالإضافة إلى الأشخاص العاديين.

Zac Amos هو كاتب تقني يركز على الذكاء الاصطناعي. وهو أيضًا محرر الميزات في ReHack، حيث يمكنك قراءة المزيد من أعماله.