رطم مخاطر روبوتات المحادثة التي تعمل بالذكاء الاصطناعي - وكيفية مواجهتها - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

قاده التفكير

مخاطر روبوتات المحادثة التي تعمل بالذكاء الاصطناعي - وكيفية مواجهتها

mm

تم النشر

 on

بمجرد اعتبارها مجرد برامج نقاش آلية ، يمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي الآن التعلم وإجراء محادثات لا يمكن تمييزها تقريبًا عن البشر. ومع ذلك ، فإن مخاطر روبوتات الدردشة بالذكاء الاصطناعي متنوعة تمامًا.

يمكن أن تتراوح هذه من إساءة استخدام الأشخاص لها إلى مخاطر الأمن السيبراني الفعلية. نظرًا لأن البشر يعتمدون بشكل متزايد على تقنية الذكاء الاصطناعي ، فإن معرفة التداعيات المحتملة لاستخدام هذه البرامج أمر ضروري. لكن هل الروبوتات خطرة؟

1. التحيز والتمييز

إن أحد أكبر مخاطر روبوتات الدردشة بالذكاء الاصطناعي هو ميلها نحو التحيزات الضارة. نظرًا لأن الذكاء الاصطناعي يرسم الروابط بين نقاط البيانات التي غالبًا ما يفوتها البشر ، فيمكنه التعرف على التحيزات الدقيقة والضمنية في بيانات التدريب الخاصة به لتعليم نفسه كيف يكون تمييزيًا. ونتيجة لذلك ، يمكن لبرامج الدردشة الآلية أن تتعلم بسرعة كيف تنشر محتوى عنصريًا أو متحيزًا على أساس الجنس أو غير ذلك من المحتوى التمييزي ، حتى لو لم يكن هناك شيء بهذا القدر من التطرف في بيانات التدريب الخاصة بها.

وخير مثال على ذلك هو روبوت التوظيف الذي تم إلغاؤه من أمازون. في عام 2018 ، ظهر أن أمازون تخلت عن مشروع الذكاء الاصطناعي المقصود منه إجراء تقييم مسبق لسير ذاتية المتقدمين لأنه كان يعاقب الطلبات المقدمة من النساء. نظرًا لأن معظم السير الذاتية التي تم تدريب الروبوت عليها كانت من الرجال ، فقد علمت نفسها أن المتقدمين الذكور هم الأفضل ، حتى لو لم تذكر بيانات التدريب ذلك صراحة.

تميل روبوتات المحادثة التي تستخدم محتوى الإنترنت لتعليم نفسها كيفية التواصل بشكل طبيعي إلى إظهار المزيد من التحيزات المتطرفة. في عام 2016 ، أطلقت Microsoft برنامج chatbot اسمه Tay والذي تعلم تقليد منشورات وسائل التواصل الاجتماعي. في غضون ساعات قليلة ، هو بدأ بتغريد محتوى مسيء للغاية، مما دفع Microsoft إلى تعليق الحساب في وقت قريب.

إذا لم تكن الشركات حريصة عند إنشاء هذه الروبوتات ونشرها ، فقد تؤدي بطريق الخطأ إلى مواقف مماثلة. قد تسيء روبوتات المحادثة معاملة العملاء أو تنشر محتوى ضارًا متحيزًا من المفترض أن تمنعه.

2. مخاطر الأمن السيبراني

يمكن أن تشكل مخاطر تقنية روبوتات الدردشة للذكاء الاصطناعي أيضًا تهديدًا مباشرًا للأمن السيبراني للأفراد والشركات. أحد أكثر أشكال الهجمات الإلكترونية انتشارًا هو التصيد الاحتيالي وخداع التصيد الاحتيالي. هذه تشمل المهاجمون السيبرانيون يقلدون المنظمات الموثوقة مثل البنوك أو الهيئات الحكومية.

تعمل عمليات الخداع عادةً من خلال البريد الإلكتروني والرسائل النصية - يؤدي النقر فوق الارتباط إلى السماح للبرامج الضارة بالدخول إلى نظام الكمبيوتر. بمجرد دخول الفيروس ، يمكن للفيروس أن يفعل أي شيء من سرقة المعلومات الشخصية إلى الاحتفاظ بالنظام للحصول على فدية.

تزايد معدل هجمات التصيد بشكل مطرد أثناء وبعد جائحة COVID-19. وكالة الأمن السيبراني وأمن البنية التحتية وجدت 84٪ من الأفراد رد على رسائل التصيد الاحتيالي بمعلومات حساسة أو بالضغط على الرابط.

يستخدم المخادعون تقنية روبوت الدردشة بالذكاء الاصطناعي لأتمتة البحث عن الضحايا ، وإقناعهم بالنقر فوق الروابط والتخلي عن المعلومات الشخصية. تُستخدم روبوتات الدردشة من قبل العديد من المؤسسات المالية - مثل البنوك - لتبسيط تجربة خدمة العملاء.

يمكن للمخادعين في روبوتات الدردشة تقليد نفس المطالبات الآلية التي تستخدمها البنوك لخداع الضحايا. يمكنهم أيضًا الاتصال تلقائيًا بأرقام الهواتف أو الاتصال بالضحايا مباشرة على منصات الدردشة التفاعلية.

3. تسمم البيانات

يُعد تسمم البيانات هجومًا إلكترونيًا تم تصوره حديثًا يستهدف الذكاء الاصطناعي بشكل مباشر. تتعلم تقنية الذكاء الاصطناعي من مجموعات البيانات وتستخدم تلك المعلومات لإكمال المهام. هذا ينطبق على جميع برامج الذكاء الاصطناعي ، بغض النظر عن الغرض منها أو وظائفها.

بالنسبة إلى أنظمة الذكاء الاصطناعي في روبوتات الدردشة ، فهذا يعني تعلم إجابات متعددة على الأسئلة المحتملة التي يمكن للمستخدمين طرحها عليهم. ومع ذلك ، هذا أيضًا أحد مخاطر الذكاء الاصطناعي.

غالبًا ما تكون مجموعات البيانات هذه أدوات وموارد مفتوحة المصدر متاحة لأي شخص. على الرغم من أن شركات الذكاء الاصطناعي عادةً ما تحتفظ بسرية حراسة مشددة لمصادر بياناتها ، يمكن للمهاجمين السيبرانيين تحديد أي منها يستخدمونه ويتلاعبون بالبيانات.

يمكن للمهاجمين عبر الإنترنت إيجاد طرق لذلك العبث بمجموعات البيانات تستخدم لتدريب أنظمة الذكاء الاصطناعي ، مما يسمح لهم بالتلاعب بقراراتهم وردودهم. سيستخدم الذكاء الاصطناعي المعلومات من البيانات المعدلة ويقوم بالأعمال التي يريدها المهاجمون.

على سبيل المثال ، أحد المصادر الأكثر استخدامًا لمجموعات البيانات هي موارد Wiki مثل Wikipedia. على الرغم من أن البيانات لا تأتي من مقال Wikipedia المباشر ، إلا أنها تأتي من لقطات من البيانات المأخوذة في أوقات محددة. يمكن للقراصنة إيجاد طريقة لتعديل البيانات لصالحهم.

في حالة أنظمة الدردشة الآلية الذكية ، يمكن للقراصنة إتلاف مجموعات البيانات المستخدمة في تدريب روبوتات الدردشة التي تعمل في المؤسسات الطبية أو المالية. يمكنهم التلاعب ببرامج chatbot لتزويد العملاء بمعلومات خاطئة قد تقودهم إلى النقر فوق ارتباط يحتوي على برامج ضارة أو موقع ويب احتيالي. بمجرد أن يبدأ الذكاء الاصطناعي في سحب البيانات المسمومة ، يكون من الصعب اكتشافه ويمكن أن يؤدي إلى خرق كبير في الأمن السيبراني يمر دون أن يلاحظه أحد لفترة طويلة.

كيفية معالجة مخاطر روبوتات الدردشة بالذكاء الاصطناعي

هذه المخاطر مقلقة ، لكنها لا تعني أن الروبوتات خطرة بطبيعتها. بدلاً من ذلك ، يجب أن تتعامل معهم بحذر وأن تضع في اعتبارك هذه المخاطر عند إنشاء روبوتات المحادثة واستخدامها.

مفتاح منع تحيز الذكاء الاصطناعي هو البحث عنه طوال التدريب. تأكد من تدريبها على مجموعات بيانات متنوعة وبرمجتها على وجه التحديد لتجنب أخذ عوامل مثل العرق أو الجنس أو التوجه الجنسي في صنع القرار. من الأفضل أيضًا أن يكون لديك فريق متنوع من علماء البيانات لمراجعة الأعمال الداخلية لروبوتات المحادثة والتأكد من أنها لا تظهر أي تحيزات ، مهما كانت دقيقة.

أفضل دفاع ضد التصيد هو التدريب. تدريب جميع الموظفين على الفور العلامات الشائعة لمحاولات التصيد الاحتيالي حتى لا يقعوا في فخ هذه الهجمات. سيساعد أيضًا نشر وعي المستهلك حول هذه المشكلة.

يمكنك منع تسمم البيانات عن طريق تقييد الوصول إلى بيانات تدريب روبوتات المحادثة. فقط الأشخاص الذين يحتاجون إلى الوصول إلى هذه البيانات للقيام بوظائفهم بشكل صحيح يجب أن يحصلوا على التفويض - وهو مفهوم يسمى مبدأ الامتياز الأقل. بعد تنفيذ هذه القيود ، استخدم إجراءات تحقق قوية مثل المصادقة متعددة العوامل أو القياسات الحيوية لمنع مخاطر اختراق مجرمي الإنترنت إلى حساب مصرح به.

كن يقظًا تجاه مخاطر الاعتماد على الذكاء الاصطناعي

الذكاء الاصطناعي هو تقنية رائعة حقًا لها تطبيقات لا نهاية لها تقريبًا. ومع ذلك ، قد تكون مخاطر الذكاء الاصطناعي غامضة. هل الروبوتات خطرة؟ ليس بطبيعتها ، ولكن يمكن لمجرمي الإنترنت استخدامها بطرق تخريبية مختلفة. يعود الأمر للمستخدمين ليقرروا ماهية تطبيقات هذه التقنية الجديدة.