בדל צוות המחקר של MIT מעצב רשת בינה מלאכותית כדי להתנגד לדוגמאות יריבות - Unite.AI
צור קשר

בינה מלאכותית

צוות המחקר של MIT מעצב רשת בינה מלאכותית כדי להתנגד לדוגמאות יריבות

mm

יצא לאור

 on

צוות חוקרים מ-MIT hכפי שפיתח אלגוריתם למידה עמוקה נועד לעזור לבינה מלאכותית להתמודד עם דוגמאות "יריבות", שעלולות לגרום לבינה מלאכותית לבצע תחזיות שגויות ולבצע את הפעולות הלא נכונות. האלגוריתם שתוכנן על ידי צוות MIT יכול לעזור למערכות בינה מלאכותית לשמור על דיוקן ולהימנע מטעויות כשהן מתמודדות עם נקודות נתונים מבלבלות.

מערכות AI מנתחות את תכונות הקלט של אירוע כדי להחליט כיצד להגיב לאותו אירוע. AI האחראי לתמרון רכב אוטונומי צריך לקחת נתונים ממצלמות הרכב ולהחליט מה לעשות על סמך הנתונים הכלולים בתמונות הללו. עם זאת, יש סיכוי שנתוני התמונה המנותחים על ידי ה-AI אינם ייצוג מדויק של העולם האמיתי. תקלה במערכת המצלמה עלולה לשנות חלק מהפיקסלים, ולהוביל לכך שה-AI מסיק מסקנות שגויות לגבי דרך הפעולה המתאימה.

"כניסות יריבות" הן כמו אשליות אופטיות עבור מערכת AI. הם תשומות שמבלבלות AI בצורה כלשהי. ניתן ליצור תשומות יריבות במטרה מפורשת לגרום לבינה מלאכותית לעשות טעויות, על ידי ייצוג נתונים בצורה שגורמת לבינה מלאכותית להאמין שהתוכן של דוגמה הוא דבר אחד במקום אחר. לדוגמה, אפשר ליצור דוגמה נגדית למערכת ראייה ממוחשבת על ידי ביצוע שינויים קלים בתמונות של חתולים, מה שגורם ל-AI לסווג לא נכון את התמונות כמסכי מחשב. צוות המחקר של MIT עיצב אלגוריתם שיעזור להגן מפני דוגמאות יריבות על ידי מתן אפשרות למודל לשמור על מידה של "ספקנות" לגבי התשומות שהוא מקבל.

החוקרים ב-MIT כינו את הגישה שלהם "חוסן יריבות מוסמכת ללימוד חיזוק עמוק", או קארל. CARRL מורכב מרשת למידת חיזוק ורשת נוירונים עמוקה מסורתית המחוברות יחד. למידת חיזוק משתמשת במושג "תגמולים" כדי להכשיר מודל, ומעניקה למודל יותר תגמול באופן פרופורציונלי ככל שהוא מתקרב להגיע למטרה שלו. מודל למידת החיזוק משמש לאימון Deep Q-Netowrkk, או DQN. DQNs מתפקדים כמו רשתות עצביות מסורתיות, אבל הם גם מקשרים ערכי קלט עם רמת תגמול, בדומה למערכות למידת חיזוק.

CARRL פועלת באמצעות מודלים של מגוון ערכים אפשריים שונים עבור נתוני קלט.

בהנחה שה-AI מנסה לעקוב אחר המיקום של נקודה בתוך תמונה גדולה יותר, ה-AI מחשיב שמיקום הנקודה יכול להיות תוצאה של ההשפעה הנגדית ומתחשב באזורים שבהם הנקודה יכולה להיות במקום. לאחר מכן, הרשת מקבלת החלטות על סמך התרחיש הגרוע ביותר עבור מיקום הנקודה, ומתייחסת לפעולה שתפיק את התגמול הגבוה ביותר בתרחיש הגרוע ביותר הזה.

השיטה האופיינית לשמירה מפני דוגמאות יריבות כוללת הפעלת גרסאות שהשתנו מעט של תמונת הקלט דרך רשת הבינה המלאכותית כדי לראות אם תמיד מתקבלת אותה החלטה. אם שינויים בתמונה אינם משפיעים באופן דרמטי על התוצאה, יש סיכוי טוב שהרשת עמידה בפני דוגמאות יריבות. עם זאת, זו אינה אסטרטגיה בת קיימא עבור תרחישים שבהם יש צורך לקבל החלטות מהירות, מכיוון שמדובר בשיטות בדיקה עתירות זמן, יקרות מבחינה חישובית. מסיבה זו, צוות MIT יצא ליצור רשת עצבית שתוכל לקבל החלטות על סמך הנחות מהמקרה הגרוע ביותר, כזו המסוגלת לפעול בתרחישים שבהם הבטיחות היא קריטית.

חוקרי MIT בדקו את האלגוריתמים שלהם על ידי כך שה-AI ישחק משחק פונג. הם כללו דוגמאות יריבות על ידי הזנת מקרי הבינה המלאכותית שבה הכדור הוצג מעט יותר במורד המסך ממה שהיה בפועל. ככל שהשפעתן של הדוגמאות היריבות גדלה, טכניקות התיקון הסטנדרטיות החלו להיכשל בעוד CARRL הצליחה לנצח יותר משחקים בהשוואה. CARRL נבדק גם במשימת הימנעות מהתנגשות. המשימה התגלגלה בסביבה וירטואלית שבה שני סוכנים שונים ניסו להחליף עמדות מבלי להיתקל זה בזה. צוות המחקר שינה את התפיסה של הסוכן הראשון לגבי הסוכן השני ו-CARRL הצליחה לנווט את הסוכן הראשון סביב הסוכן השני, אפילו בתנאים של אי ודאות גבוהה, אם כי הגיע שלב שבו CARRL הפכה זהירה מדי ובסופו של דבר נמנעה ממנו. יעד בכלל.

בלי קשר, המחלקה לאווירונאוטיקה ואסטרונאוטיקה של MIT, מייקל אוורט, שהוביל את המחקר, הסביר שלמחקר עשויות להיות השלכות על יכולתם של רובוטים להתמודד עם מצבים בלתי צפויים. כפי שאוורט הסביר באמצעות חדשות MIT:

"אנשים יכולים להיות יריבים, כמו להגיע מול רובוט כדי לחסום את החיישנים שלו, או אינטראקציה איתם, לאו דווקא עם הכוונות הטובות ביותר", אומר אוורט. "איך רובוט יכול לחשוב על כל הדברים שאנשים עשויים לנסות לעשות ולנסות להימנע מהם? מאיזה סוג של מודלים יריבים אנחנו רוצים להתגונן? זה משהו שאנחנו חושבים איך לעשות".