رطم يعتقد الباحثون أنه يمكن استخدام الذكاء الاصطناعي للمساعدة في حماية خصوصية الأشخاص - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

الأخلاقيات

يعتقد الباحثون أنه يمكن استخدام الذكاء الاصطناعي للمساعدة في حماية خصوصية الأشخاص

mm
تحديث on

نشر مؤخرا اثنان من أساتذة علم المعلومات قطعة في المحادثة، بحجة أن الذكاء الاصطناعي يمكن أن يساعد في الحفاظ على خصوصية الأشخاص ، وتصحيح بعض المشكلات التي أوجدتها.

يجادل Zhiyuan Chen و Aryya Gangopadhyay بأنه يمكن استخدام خوارزميات الذكاء الاصطناعي للدفاع عن خصوصية الأشخاص ، والتصدي لبعض مخاوف الخصوصية العديدة التي خلقتها الاستخدامات الأخرى للذكاء الاصطناعي. أقر تشين وجانغوبادياي بأن العديد من المنتجات التي تعتمد على الذكاء الاصطناعي والتي نستخدمها للراحة لن تعمل بدون الوصول إلى كميات كبيرة من البيانات ، والتي تبدو للوهلة الأولى متعارضة مع محاولات الحفاظ على الخصوصية. علاوة على ذلك ، مع انتشار الذكاء الاصطناعي في المزيد والمزيد من الصناعات والتطبيقات ، سيتم جمع المزيد من البيانات وتخزينها في قواعد البيانات ، مما يجعل انتهاكات قواعد البيانات هذه مغرية. ومع ذلك ، يعتقد تشين وجانغوبادياي أنه عند استخدامه بشكل صحيح ، يمكن أن يساعد الذكاء الاصطناعي في التخفيف من هذه المشكلات.

أوضح تشين وجانغوبادياي في منشوراتهما أن مخاطر الخصوصية المرتبطة بالذكاء الاصطناعي تأتي من مصدرين مختلفين على الأقل. المصدر الأول هو مجموعات البيانات الكبيرة التي تم جمعها لتدريب نماذج الشبكات العصبية ، في حين أن التهديد الثاني للخصوصية هو النماذج نفسها. يمكن أن "تتسرب" البيانات من هذه النماذج ، مع إعطاء سلوك النماذج تفاصيل حول البيانات المستخدمة في تدريبهم.

تتكون الشبكات العصبية العميقة من طبقات متعددة من الخلايا العصبية ، مع كل طبقة متصلة بالطبقات المحيطة بها. تقوم الخلايا العصبية الفردية ، وكذلك الروابط بين الخلايا العصبية ، بترميز أجزاء مختلفة من بيانات التدريب. قد يكون النموذج جيدًا جدًا مثل تذكر أنماط بيانات التدريب ، حتى لو لم يكن النموذج مناسبًا. توجد آثار لبيانات التدريب داخل الشبكة وقد تتمكن الجهات الخبيثة من التأكد من جوانب بيانات التدريب ، مثل جامعة كورنيل وجدت خلال إحدى دراساتهم. وجد باحثو كورنيل أنه يمكن للمهاجمين استغلال خوارزميات التعرف على الوجه للكشف عن الصور ، وبالتالي الأشخاص ، الذين تم استخدامها لتدريب نموذج التعرف على الوجوه. اكتشف باحثو كورنيل أنه حتى إذا لم يتمكن المهاجم من الوصول إلى النموذج الأصلي المستخدم لتدريب التطبيق ، فقد يظل المهاجم قادرًا على فحص الشبكة وتحديد ما إذا كان شخص معين قد تم تضمينه في بيانات التدريب ببساطة عن طريق استخدام النماذج. تم تدريبهم على بيانات متشابهة للغاية.

تُستخدم بعض نماذج الذكاء الاصطناعي حاليًا للحماية من انتهاكات البيانات ومحاولة ضمان خصوصية الأشخاص. تُستخدم نماذج الذكاء الاصطناعي بشكل متكرر لاكتشاف محاولات القرصنة من خلال التعرف على أنماط السلوك التي يستخدمها المتسللون لاختراق أساليب الأمان. ومع ذلك ، غالبًا ما يغير المتسللون سلوكهم لمحاولة خداع الذكاء الاصطناعي لاكتشاف الأنماط.

تهدف الأساليب الجديدة للتدريب والتطوير على الذكاء الاصطناعي إلى جعل نماذج وتطبيقات الذكاء الاصطناعي أقل عرضة لأساليب القرصنة وتكتيكات التهرب الأمني. يسعى التعلم العدائي لتدريب نماذج الذكاء الاصطناعي على محاكاة المدخلات الخبيثة أو الضارة ، وبذلك يجعل النموذج أكثر قوة في مواجهة الاستغلال ، ومن ثم "الخصومة" في الاسم. وفقا لأبحاث تشين وجانغوبادياي اكتشف أساليب مكافحة البرامج الضارة المصممة لسرقة المعلومات الخاصة للأشخاص. أوضح الباحثان أن إحدى الطرق الأكثر فعالية في مقاومة البرمجيات الخبيثة هي إدخال عدم اليقين في النموذج. الهدف هو جعل الأمر أكثر صعوبة بالنسبة للممثلين السيئين لتوقع كيف سيتفاعل النموذج مع أي مدخلات معينة.

تشمل الطرق الأخرى لاستخدام الذكاء الاصطناعي لحماية الخصوصية تقليل تعرض البيانات عند إنشاء النموذج وتدريبه، بالإضافة إلى البحث عن نقاط الضعف في الشبكة. عندما يتعلق الأمر بالحفاظ على خصوصية البيانات، يمكن أن يساعد التعلم الموحد في حماية خصوصية البيانات الحساسة، لأنه يسمح بتدريب النموذج دون مغادرة بيانات التدريب للأجهزة المحلية التي تحتوي على البيانات، وعزل البيانات، والكثير من البيانات. معلمات النموذج من التجسس.

في النهاية ، يجادل تشين وجانغوبادياي بأنه على الرغم من أن انتشار الذكاء الاصطناعي قد خلق تهديدات جديدة لخصوصية الناس ، يمكن للذكاء الاصطناعي أيضًا المساعدة في حماية الخصوصية عند تصميمه بعناية واهتمام.

Blogger والمبرمج مع تخصصات في تعلم آلة و تعلم عميق المواضيع. يأمل دانيال في مساعدة الآخرين على استخدام قوة الذكاء الاصطناعي من أجل الصالح الاجتماعي.