ืืืืืช ืกืืืืจ
Explainable AI May Surrender Confidential Data More Easily

חוקרים מאוניברסיטה הלאומית של סינגפור הגיעו למסקנה כי ככל שה- AI הופך ליותר מובן, כך הוא יהיה קל יותר לעקוף תכונות פרטיות חיוניות במערכות למידת מכונה. הם גם מצאו כי אפילו כאשר המודל אינו מובן, ניתן להשתמש בהסברים של מודלים דומים כדי ‘לפענח’ נתונים רגישים במודל שאינו מובן.
ה מחקר, בשם ניצול הסברים לתקיפות היפוך מודל, מדגיש את הסיכונים של השימוש ב’אופק’ המקרי של הדרך שבה רשתות עצביות פועלות כאילו זו הייתה תכונת אבטחה מכוונת – לא רק משום שגל של יוזמות גלובליות חדשות, כולל הצעת תקנות ה- AI של האיחוד האירופי, מתארות את ה- AI המובן (XAI) כתנאי מוקדם לנורמליזציה הסופית של למידת מכונה בחברה.

במחקר, זהות אמיתית מוחזרת בהצלחה מנתונים אנונימיים לכאורה הקשורים לביטויים פנימיים, דרך ניצול הסברים מרובים של מערכת למידת מכונה. מקור: https://arxiv.org/pdf/2108.10800.pdf
החוקרים מציינים:
‘בינה מלאכותית מובנת (XAI) מספקת יותר מידע לעזור למשתמשים להבין החלטות מודל, אך ידע זה מחשף סיכונים נוספים לתקיפות פרטיות. לפיכך, סיפוק הסבר פוגע בפרטיות.’
זיהוי מחדש של נתונים פרטיים
משתתפים במאגרי נתונים של למידת מכונה עשויים להסכים להיכלל בהנחה של אנונימיות; במקרה של מידע זהות אישית (PII) שמסתיים במערכות AI דרך איסוף נתונים אד הוק (למשל, דרך רשתות חברתיות), השתתפות עשויה להיות טכנית-חוקית, אך מתוח על המושג ‘הסכמה’.
כמה שיטות התפתחו בשנים האחרונות שהוכחו כמסוגלות לשלול אנונימיות של PII מזרמי נתונים של למידת מכונה שקופים לכאורה. הוצאת מודל משתמשת בגישה API (כלומר ‘גישה שחורה’, ללא זמינות מיוחדת של קוד מקור או נתונים) כדי להוציא PII אפילו מספקי MLaaS בקנה מידה גבוה, כולל Amazon Web Services, בעוד תקיפות השתייכות (MIAs) , הפועלות תחת אילוצים דומים, יכולות לקבל מידע רפואי חסוי; בנוסף, תקיפות השתייכות (AIAs) יכולות לשחזר נתונים רגישים מפלט API.
חשיפת פנים
לשם המאמר החדש, החוקרים התרכזו בתקיפת היפוך מודל שנועדה לקבל זהות מתת-קבוצה של נתוני ביטוי פנימי שאינם אמורים להיות מסוגלים לחשוף מידע זה.
מטרת המערכת הייתה לקשר תמונות שנמצאות בטבע (הן פורסמו באופן קסואלי באינטרנט או באירוע אפשרי של הדלפת נתונים) עם הכללתן במאגרי נתונים התומכים באלגוריתם למידת מכונה.
החוקרים אימנו מודל תקיפת היפוך שיכול לשחזר את התמונה המקורית מפלט API מאונונימי, ללא גישה מיוחדת לארכיטקטורה המקורית. עבודה קודמת בתחום זה התרכזה במערכות שבהן זיהוי (הגנה או חשיפה) היה המטרה של המערכת היעד והמערכת התוקפת; במקרה זה, הכלי תוכנן לנצל את הפלט של תחום אחד וליישמו על תחום אחר.
רשת עצבית קונבולוציונית מוטה (CNN) הועסקה כדי לחזות ‘פנים מקורית’ על בסיס וקטור החזיון היעד (מפת רלוונטיות) עבור מערכת זיהוי רגש, באמצעות ארכיטקטורת U-Net כדי לשפר את ביצועי השחזור הפנימי.

המערכת לזיהוי מחדש מונעת ומודעת על ידי AI מובן (XAI), שבה ידע על הפעלת ניורון, בין היתר, מנוצל כדי לשחזר את המנגנונים הפנימיים של הארכיטקטורה רק מהפלט שלה, ומאפשרת זיהוי מחדש של תמונות מאגר נתונים.
בדיקה
בבדיקת המערכת, החוקרים יישמו אותה נגד שלושה מאגרי נתונים: iCV-MEFED ביטויי פנים; CelebA; ו MNIST תווים כתובים. כדי להתאים לגודל המודל המשמש את החוקרים, שלושת המאגרים הוקטנו בהתאמה ל-128×128, 265×256 ו-32×32 פיקסל. 50% מכל סט שימשו כנתוני אימון, והמחצית האחרת שימשה כסט תקיפה כדי לאמ












