בדל הנחות נפוצות לגבי תקלות למידת מכונה יכולות להיות שגויות - Unite.AI
צור קשר

בינה מלאכותית

הנחות נפוצות לגבי תקלות למידת מכונה יכולות להיות שגויות

מְעוּדכָּן on

רשתות עצביות עמוקות הן אחד ההיבטים הבסיסיים ביותר של בינה מלאכותית (AI), מכיוון שהן משמשות לעיבוד תמונות ונתונים באמצעות מודלים מתמטיים. הם אחראים לכמה מההתקדמות הגדולות ביותר בתחום, אבל הם גם מתקלקלים בדרכים שונות. לתקלות אלו עשויות להיות השפעה קטנה עד לא קיימת, כגון זיהוי שגוי פשוט, עד להשפעה דרמטית וקטלנית יותר, כגון תקלה בנהיגה עצמית.

מחקר חדש שיצא מאוניברסיטת יוסטון מצביע על כך שההנחות הנפוצות שלנו לגבי תקלות אלו עשויות להיות שגויות, מה שיכול לעזור להעריך את מהימנות הרשתות בעתיד.

העיתון פורסם ב מחשב המודיעין בחודש נובמבר.

"דוגמאות יריבות"

למידת מכונה וסוגים אחרים של AI חיוניים במגזרים ומשימות רבות, כגון מערכות בנקאות ואבטחת סייבר. לדברי קמרון באקנר, פרופסור חבר לפילוסופיה ב-UH, חייבת להיות הבנה של הכשלים שגרמו "דוגמאות יריבות". דוגמאות יריבות אלו מתרחשות כאשר מערכת רשת עצבית עמוקה שופטת לא נכון תמונות ונתונים אחרים כאשר היא נתקלת במידע מחוץ לקלט האימון ששימשו לפיתוח הרשת.

הדוגמאות המתנגדות הן נדירות מכיוון שפעמים רבות הן נוצרות או מתגלות על ידי רשת אחרת למידת מכונה.

"חלק מהאירועים היריביים האלה יכולים במקום זאת להיות חפצים, ואנחנו צריכים לדעת טוב יותר מה הם כדי לדעת עד כמה הרשתות האלה אמינות", כתב באקנר.

באקנר אומר שהתקלה עלולה להיגרם כתוצאה מהאינטראקציה בין הדפוסים המעורבים בפועל לבין מה שהרשת מתכוונת לעבד, כלומר לא מדובר בטעות מוחלטת.

דפוסים כחפצים

"הבנת ההשלכות של דוגמאות יריבות מחייבת בחינת אפשרות שלישית: שלפחות חלק מהדפוסים הללו הם חפצים", אמר באקנר. "לכן, יש כיום גם עלויות פשוטות בביטול הדפוסים הללו וגם סכנות בשימוש בהם בתמימות."

למרות שזה לא המקרה כל הזמן, פגיעה מכוונת היא הסיכון הגבוה ביותר בנוגע לאירועים יריבים אלה הגורמים לתקלות למידת מכונה.

"זה אומר ששחקנים זדוניים יכולים להטעות במערכות שנשענות על רשת אמינה אחרת", אמר באקנר. "יש לכך יישומי אבטחה."

זה יכול להיות האקרים שפורצים מערכת אבטחה המבוססת על טכנולוגיית זיהוי פנים, או תמרורים עם תווית שגויה כדי לבלבל כלי רכב אוטונומיים.

מחקרים קודמים אחרים הוכיחו שחלק מהדוגמאות האדוורסריות מתרחשות באופן טבעי, כשהן מתרחשות כאשר מערכת למידת מכונה מפרשת נתונים לא נכון באמצעות אינטראקציה בלתי צפויה, שהיא שונה מאשר באמצעות שגיאות בנתונים. הדוגמאות המתרחשות באופן טבעי הן נדירות, והדרך היחידה כיום לגלות אותן היא באמצעות AI.

עם זאת, באקנר אומר שחוקרים צריכים לחשוב מחדש על הדרכים שבהן הם מטפלים בחריגות.

חריגות אלו, או חפצים, מוסברים על ידי באקנר באמצעות אנלוגיה של התלקחות עדשה בצילום, שאינה נגרמת מפגם בעדשת המצלמה אלא מאינטראקציה של האור עם המצלמה.

אם יודעים לפרש את כשרון העדשה, ניתן לחלץ מידע חשוב כגון מיקום השמש. בגלל זה, באקנר חושב שאפשר לחלץ מידע בעל ערך שווה מאירועים שליליים בלמידת מכונה שנגרמים על ידי החפץ.

באקנר גם אומר שכל זה לא אומר אוטומטית שלמידה עמוקה אינה חוקית.

"חלק מאירועי היריב הללו יכולים להיות חפצים," אמר. "עלינו לדעת מה הם חפצים אלה כדי שנוכל לדעת כמה הרשתות אמינות."

אלכס מקפרלנד הוא עיתונאי וסופר בינה מלאכותית הבוחן את ההתפתחויות האחרונות בתחום הבינה המלאכותית. הוא שיתף פעולה עם סטארט-אפים ופרסומים רבים של AI ברחבי העולם.