قادة الفكر
أخطار محادثات الذكاء الاصطناعي – وكيفية مواجهتها

كان يُعتقد في الماضي أن برامج المحادثة الآلية هي برامج محادثة آلية فقط، ولكن محادثات الذكاء الاصطناعي يمكنها الآن التعلم والاحتفاظ بمحادثات لا يمكن تمييزها من البشر. ومع ذلك، فإن أخطار محادثات الذكاء الاصطناعي متنوعة.
يمكن أن تتراوح هذه الأخطار من استخدام الأشخاص لها بطريقة خاطئة إلى أخطار أمنية حقيقية. مع زيادة اعتماد البشر على تكنولوجيا الذكاء الاصطناعي، من المهم معرفة العواقب المحتملة لاستخدام هذه البرامج. ولكن هل المحادثات الآلية خطيرة؟
1. التحيز والتمييز
أحد أكبر أخطار محادثات الذكاء الاصطناعي هو ميلها إلى التحيز الضار. لأن الذكاء الاصطناعي يرسم وصلات بين نقاط البيانات التي يغفل عنها البشر، يمكنه التقاط تحيزات خفية وضمنية في بياناته التدريبية لتعليم نفسه التمييز. ونتيجة لذلك، يمكن لمحادثات الذكاء الاصطناعي التعلم بسرعة لنطق محتوى عنصري أو متحيز أو محتوى تمييزي آخر، حتى لو لم يكن هناك شيء بهذا القدر من الطرف في بياناته التدريبية.
مثال رئيسي على ذلك هو مشروع روبوت التوظيف الذي أُلغي من قبل شركة أمازون. في عام 2018، أُعلن أن شركة أمازون ألغت مشروع الذكاء الاصطناعي المخصص لتقييم سير عمل المتقدمين مسبقًا لأنها كانت تؤثر على طلبات النساء. لأن معظم سير العمل التي تدرب عليها الروبوت كانت لسير عمل رجال، علمت نفسها أن المتقدمين من الرجال أفضل، حتى لو لم تقل بيانات التدريب ذلك صراحة.
تميل محادثات الذكاء الاصطناعي التي تستخدم محتوى الإنترنت لتعلم كيفية التواصل بشكل طبيعي إلى إظهار تحيزات أكثر تطرفًا. في عام 2016، أطلقت شركة مايكروسوفت روبوت محادثة أسمته تاي الذي علّم نفسه لمحاكاة منشورات وسائل التواصل الاجتماعي. في غضون ساعات، بدأت في نشر محتوى هجومي للغاية، مما أدى إلى تعليق حسابها من قبل شركة مايكروسوفت بعد فترة وجيزة.
إذا لم تكن الشركات حريصة عند بناء وتشغيل هذه الروبوتات، فقد تؤدي إلى مواقف مشابهة. يمكن لمحادثات الذكاء الاصطناعي معاملة العملاء بسوء أو نشر محتوى متحيز ضار الذي من المفترض أن تمنعه.
2. أخطار الأمن السيبراني
يمكن أن تشكل أخطار تكنولوجيا محادثات الذكاء الاصطناعي تهديدًا أمنيًا مباشرًا للناس والشركات. واحدة من أكثر أشكال الهجمات السيبرانية شيوعًا هي هجمات الفيشينج والفايشينج. تتضمن هذه الهجمات مهاجمي السيبرانيين الذين يقلدون المنظمات الموثوقة مثل البنوك أو الهيئات الحكومية.
تتم هجمات الفيشينج عادةً عبر البريد الإلكتروني والرسائل النصية — بالنقر على الرابط، يسمح للملا웨어 بالدخول إلى نظام الحاسوب. بمجرد دخولها، يمكن للفيروس أن يفعل أي شيء من سرقة المعلومات الشخصية إلى الاحتفاظ بالنظام لفدية.
كانت معدلات هجمات الفيشينج في زيادة مستمرة خلال وبعد جائحة كوفيد-19. وجدت وكالة الأمن السيبراني والبنية التحتية للأمن أن 84% من الأفراد استجابوا لرسائل الفيشينج بمعلومات حساسة أو نقروا على الرابط.
يستخدم مهاجمو الفيشينج تكنولوجيا محادثات الذكاء الاصطناعي لتحسين البحث التلقائي عن ضحايا، وإقناعهم بالنقر على الروابط وتقديم المعلومات الشخصية. تستخدم محادثات الذكاء الاصطناعي من قبل العديد من المؤسسات المالية — مثل البنوك — لتحسين تجربة خدمة العملاء.
يمكن لمهاجمي الفيشينج أن يقلدوا الإشارات الآلية التي تستخدمها البنوك لخداع الضحايا. كما يمكنهم الاتصال تلقائيًا بأرقام الهواتف أو الاتصال بالضحايا مباشرة على منصات المحادثة التفاعلية.
3. تسميم البيانات
تسميم البيانات هو هجوم سيبراني جديد يهدف مباشرة إلى الذكاء الاصطناعي. تتعلم تكنولوجيا الذكاء الاصطناعي من مجموعات البيانات وتستخدم هذه المعلومات لإنجاز المهام. هذا صحيح لجميع برامج الذكاء الاصطناعي، بغض النظر عن غرضها أو وظائفها.
لمحادثات الذكاء الاصطناعي، هذا يعني تعلم العديد من الاستجابات للأسئلة المحتملة التي يمكن للمستخدمين تقديمها. ومع ذلك، هذا也是 واحد من أخطار الذكاء الاصطناعي.
تعد مجموعات البيانات هذه في كثير من الأحيان أدوات وموارد مفتوحة المصدر متاحة للجميع. على الرغم من أن شركات الذكاء الاصطناعي عادة ما تحافظ على سرية مصادر بياناتها، يمكن لمهاجمي السيبرانيين تحديد المصادر التي يستخدمونها وتعديل البيانات.
يمكن لمهاجمي السيبرانيين العثور على طرق لتعديل مجموعات البيانات المستخدمة لتدريب الذكاء الاصطناعي، مما يسمح لهم بتحويل قراراته واستجاباته. سوف يستخدم الذكاء الاصطناعي المعلومات من البيانات المعدلة وسيقوم بالافعال التي يريدها المهاجمون.
على سبيل المثال، واحدة من أكثر المصادر الشائعة لمجموعات البيانات هي موارد ويكي مثل ويكيبيديا. على الرغم من أن البيانات لا تأتي من المقالة الحية على ويكيبيديا، إلا أنها تأتي من لقطات من البيانات التaken في أوقات محددة. يمكن للمخترقين العثور على طريقة لتعديل البيانات لصالحهم.
في حالة محادثات الذكاء الاصطناعي، يمكن للمخترقين تلوث مجموعات البيانات المستخدمة لتدريب محادثات الذكاء الاصطناعي التي تعمل للمؤسسات الطبية أو المالية. يمكنهم تحويل برامج محادثات الذكاء الاصطناعي لتزويد العملاء بمعلومات خاطئة قد تؤدي بهم إلى النقر على رابط يحتوي على ملا웨어 أو موقع احتيالي. بمجرد أن يبدأ الذكاء الاصطناعي في سحب البيانات من البيانات الملوثة، من الصعب اكتشافها ويمكن أن تؤدي إلى خرق كبير في الأمن السيبراني يظل بدون ملاحظة لمدة طويلة.
كيفية مواجهة أخطار محادثات الذكاء الاصطناعي
تعد هذه المخاطر قلقة، ولكنها لا تعني أن المحادثات الآلية خطيرة بطبيعتها. بل يجب أن ننظر إليها بحذر ونأخذ هذه المخاطر في الاعتبار عند بناء واستخدام محادثات الذكاء الاصطناعي.
المفتاح لمنع التحيز في الذكاء الاصطناعي هو البحث عنه خلال التدريب. تأكد من تدريبه على مجموعات بيانات متنوعة وبرمجته خصيصًا لتجنب أخذ الأمور مثل العرق أو الجنس أو التوجه الجنسي في عمليات اتخاذ القرار. من الأفضل أيضًا أن يكون لديك فريق متنوع من علماء البيانات لمراجعة آليات محادثات الذكاء الاصطناعي وتأكد من أنها لا تظهر أي تحيز، مهما كان دقيقًا.
أفضل دفاع ضد الفيشينج هو التدريب. قم بتدريب جميع الموظفين على تحديد العلامات الشائعة لتحاول الفيشينج بحيث لا يقعون في فخ هذه الهجمات. سيساعد أيضًا نشر الوعي بين المستهلكين حول هذه القضية.
يمكنك منع تسميم البيانات عن طريق تقييد الوصول إلى بيانات تدريب محادثات الذكاء الاصطناعي. يجب أن يكون فقط الأشخاص الذين يحتاجون إلى الوصول إلى هذه البيانات لاداء وظائفهم بشكل صحيح هم الذين لديهم الصلاحية — مفهوم يسمى مبدأ الامتياز الأدنى. بعد تنفيذ هذه القيود، استخدم تدابير التحقق القوية مثل التحقق متعدد العوامل أو البيومترية لمنع مخاطر اختراق المخترقين لحساب موثوق.
البقاء على حذر من أخطار الاعتماد على الذكاء الاصطناعي
تكنولوجيا الذكاء الاصطناعي هي تكنولوجيا رائعة لها تطبيقات لا حصر لها. ومع ذلك، قد تكون أخطار الذكاء الاصطناعي غير واضحة. هل المحادثات الآلية خطيرة؟ لا بطبيعتها، ولكن يمكن لمهاجمي السيبرانيين استخدامها بطرق متنوعة ومزعجة. يعتمد على المستخدمين تحديد تطبيقات هذه التكنولوجيا الجديدة.












