בדל מה זה AI ניתן להסבר? - Unite.AI
צור קשר
כיתת אמן בינה מלאכותית:

AI 101

מה זה AI ניתן להסבר?

מְעוּדכָּן on
תמונה: DeepMind ב- Unsplash

ככל שהבינה המלאכותית (AI) הופכת מורכבת יותר ומאומצת באופן נרחב ברחבי החברה, אחת מקבוצות התהליכים והשיטות הקריטיות ביותר ניתנת להסבר (AI), המכונה לפעמים XAI. 

ניתן להגדיר בינה מלאכותית שניתן להסביר כ:

  • אוסף של תהליכים ושיטות המסייעים למשתמשים אנושיים להבין ולסמוך על התוצאות של אלגוריתמי למידת מכונה. 

כפי שאתה יכול לנחש, ההסבר הזה חשוב להפליא מכיוון שאלגוריתמים של AI משתלטים על מגזרים רבים, מה שמגיע עם הסיכון של הטיה, אלגוריתמים פגומים ובעיות אחרות. על ידי השגת שקיפות עם יכולת הסבר, העולם יכול באמת למנף את הכוח של AI. 

בינה מלאכותית ניתנת להסבר, כפי שהשם מרמז, עוזרת לתאר מודל בינה מלאכותית, השפעתו והטיות פוטנציאליות. זה גם ממלא תפקיד באפיון דיוק המודל, הוגנות, שקיפות ותוצאות בתהליכי קבלת החלטות המופעלים על ידי בינה מלאכותית. 

ארגונים מונעי בינה מלאכותית של היום צריכים תמיד לאמץ תהליכי בינה מלאכותית הניתנים להסבר כדי לעזור לבנות אמון ואמון במודלים של בינה מלאכותית בייצור. בינה מלאכותית ניתנת להסבר היא גם המפתח להפיכתה לחברה אחראית בסביבת הבינה המלאכותית של היום.

מכיוון שמערכות הבינה המלאכותית של היום כל כך מתקדמות, בני אדם בדרך כלל מבצעים תהליך חישוב כדי לשחזר כיצד האלגוריתם הגיע לתוצאה שלו. תהליך זה הופך ל"קופסה שחורה", כלומר בלתי אפשרי להבין. כאשר המודלים הבלתי מוסברים הללו מפותחים ישירות מתוך נתונים, אף אחד לא יכול להבין מה קורה בתוכם. 

על ידי הבנת האופן שבו מערכות בינה מלאכותיות פועלות באמצעות AI ניתן להסבר, מפתחים יכולים להבטיח שהמערכת פועלת כפי שהיא צריכה. זה גם יכול לעזור להבטיח שהמודל עומד בסטנדרטים הרגולטוריים, והוא מספק את ההזדמנות לאתגר או לשנות את המודל. 

תמונה: ד"ר מאט טורק/DARPA

הבדלים בין AI ל-XAI

כמה הבדלים מרכזיים עוזרים להפריד בין בינה מלאכותית "רגילה" לבין בינה מלאכותית הניתנת להסבר, אבל הכי חשוב, XAI מיישם טכניקות ושיטות ספציפיות שעוזרות להבטיח שכל החלטה בתהליך ה-ML ניתנת למעקב וניתנת להסבר. לשם השוואה, בינה מלאכותית רגילה בדרך כלל מגיעה לתוצאה שלה באמצעות אלגוריתם ML, אבל אי אפשר להבין עד הסוף איך האלגוריתם הגיע לתוצאה. במקרה של AI רגיל, קשה מאוד לבדוק את הדיוק, וכתוצאה מכך אובדן שליטה, אחריות וביקורת. 

היתרונות של AI ניתן להסבר 

ישנם יתרונות רבים עבור כל ארגון המעוניין לאמץ AI בר-הסבר, כגון: 

  • תוצאות מהירות יותר: AI בר-הסבר מאפשר לארגונים לנטר ולנהל באופן שיטתי מודלים כדי לייעל את התוצאות העסקיות. אפשר להעריך ולשפר ללא הרף את ביצועי המודל ולכוון את פיתוח המודל.
  • צמצום סיכונים: על ידי אימוץ תהליכי AI הניתנים להסבר, אתה מבטיח שמודלים של AI שלך ניתנים להסבר ושקופים. אתה יכול לנהל רגולציה, ציות, סיכונים ודרישות אחרות תוך מזעור התקורה של בדיקה ידנית. כל זה גם עוזר להפחית את הסיכון להטיה לא מכוונת. 
  • בניית אמון: AI ניתן להסבר עוזר לבסס אמון בבינה מלאכותית של ייצור. ניתן להביא מודלים של AI במהירות לייצור, אתה יכול להבטיח פרשנות והסבר, וניתן לפשט את תהליך הערכת המודל ולהפוך לשקוף יותר. 

טכניקות עבור AI ניתן להסבר

ישנן כמה טכניקות XAI שכל הארגונים צריכים לשקול, והן מורכבות משלוש שיטות עיקריות: דיוק חיזוי, עקיבות, ו הבנת החלטה

הראשונה מבין שלוש השיטות, דיוק חיזוי, חיוני כדי להשתמש בהצלחה ב-AI בפעולות יומיומיות. ניתן לבצע סימולציות, וניתן להשוות את פלט XAI לתוצאות במערך נתוני האימון, מה שעוזר לקבוע את דיוק הניבוי. אחת הטכניקות היותר פופולריות להשיג זאת נקראת Local Interpretable Model-Agnostic Explanations (LIME), טכניקה שמסבירה את חיזוי המסווגים על ידי אלגוריתם למידת המכונה. 

השיטה השנייה היא עקיבות, אשר מושגת על ידי הגבלת האופן שבו ניתן לקבל החלטות, כמו גם קביעת טווח מצומצם יותר לכללים ותכונות של למידת מכונה. אחת מטכניקות העקיבות הנפוצות ביותר היא DeepLIFT, או Deep Learning Important FeaTures. DeepLIFT משווה את ההפעלה של כל נוירון לנוירון הייחוס שלו תוך הדגמה של קשר שניתן לעקוב אחריו בין כל נוירון מופעל. זה גם מראה את התלות ביניהם. 

השיטה השלישית והאחרונה היא הבנת החלטה, שהוא ממוקד אנושי, בניגוד לשתי השיטות האחרות. הבנת החלטות כרוכה בחינוך הארגון, במיוחד הצוות שעובד עם ה-AI, כדי לאפשר להם להבין כיצד ומדוע ה-AI מקבל החלטות. שיטה זו חיונית לביסוס האמון במערכת. 

עקרונות AI הניתנים להסבר

כדי לספק הבנה טובה יותר של XAI ועקרונותיו, המכון הלאומי לתקנים (NIST), שהוא חלק ממשרד המסחר האמריקאי, מספק הגדרות לארבעה עקרונות של בינה מלאכותית שניתן להסביר: 

  1. מערכת AI צריכה לספק ראיות, תמיכה או נימוקים לכל פלט. 
  2. מערכת AI צריכה לתת הסברים שיכולים להיות מובנים למשתמשים שלה. 
  3. ההסבר צריך לשקף במדויק את התהליך המשמש את המערכת כדי להגיע לפלט שלה. 
  4. מערכת הבינה המלאכותית צריכה לפעול רק בתנאים שעבורם תוכננה, והיא לא אמורה לספק פלט כאשר אין לה מספיק ביטחון בתוצאה. 

ניתן לארגן את העקרונות הללו עוד יותר לתוך: 

  • בעל משמעות: כדי להשיג את עקרון המשמעותיות, על המשתמש להבין את ההסבר שסופק. זה יכול גם אומר שבמקרה של אלגוריתם AI בשימוש על ידי סוגים שונים של משתמשים, עשויים להיות מספר הסברים. לדוגמה, במקרה של מכונית בנהיגה עצמית, הסבר אחד עשוי להיות בנוסח..."ה-AI סיווג את שקית הניילון בכביש כסלע, ולכן נקט פעולה כדי להימנע מפגיעה בה." בעוד שדוגמה זו תעבוד עבור מנהל ההתקן, היא לא תהיה שימושית במיוחד למפתח בינה מלאכותית המחפשת לתקן את הבעיה. במקרה כזה, על היזם להבין מדוע היה סיווג שגוי. 
  • דיוק הסבר: בניגוד לדיוק הפלט, דיוק ההסבר כרוך באלגוריתם הבינה המלאכותית שמסביר במדויק כיצד הוא הגיע לפלט שלו. לדוגמה, אם אלגוריתם אישור הלוואה מסביר החלטה על סמך הכנסות הבקשה כאשר למעשה היא התבססה על מקום מגוריו של המבקש, ההסבר לא יהיה מדויק. 
  • מגבלות ידע: ניתן להגיע לגבולות הידע של ה-AI בשתי דרכים, וזה כרוך בקלט מחוץ למומחיות המערכת. לדוגמה, אם בנויה מערכת לסיווג מיני ציפורים וניתנת לה תמונה של תפוח, היא אמורה להיות מסוגלת להסביר שהקלט אינו ציפור. אם המערכת מקבלת תמונה מטושטשת, היא אמורה להיות מסוגלת לדווח כי היא אינה מסוגלת לזהות את הציפור בתמונה, או לחילופין, כי לזיהוי שלה יש ביטחון נמוך מאוד. 

תפקיד הנתונים ב-AI הניתן להסבר

אחד המרכיבים החשובים ביותר של AI שניתן להסביר הוא נתונים. 

לפי Google, בנוגע לנתונים ובינה מלאכותית שניתן להסביר, "מערכת בינה מלאכותית מובנת בצורה הטובה ביותר על ידי נתוני האימון ותהליך ההדרכה הבסיסיים, כמו גם מודל הבינה המלאכותית המתקבלת". הבנה זו נשענת על היכולת למפות מודל AI מאומן למערך הנתונים המדויק המשמש לאימון אותו, כמו גם על היכולת לבחון את הנתונים מקרוב. 

כדי לשפר את יכולת ההסבר של מודל, חשוב לשים לב לנתוני האימון. הצוותים צריכים לקבוע את מקור הנתונים המשמשים לאימון אלגוריתם, את החוקיות והאתיקה סביב השגתו, כל הטיה אפשרית בנתונים, ומה ניתן לעשות כדי למתן כל הטיה. 

היבט קריטי נוסף של נתונים ו-XAI הוא שיש לא לכלול נתונים שאינם רלוונטיים למערכת. כדי להשיג זאת, אסור לכלול את הנתונים הלא רלוונטיים במערך האימונים או בנתוני הקלט. 

גוגל המליצה על מערכת שיטות עבודה להשגת פרשנות ואחריות: 

  • תכנן את האפשרויות שלך לרדוף אחר ניתנות לפירוש
  • התייחס לפרשנות כחלק מרכזי בחוויית המשתמש
  • עצב את המודל כך שיהיה ניתן לפירוש
  • בחר מדדים שישקפו את המטרה הסופית ואת המשימה הסופית
  • הבן את המודל המאומן
  • העברת הסברים למשתמשי המודל
  • בצע בדיקות רבות כדי לוודא שמערכת הבינה המלאכותית פועלת כמתוכנן 

על ידי ביצוע שיטות עבודה מומלצות אלה, הארגון שלך יכול להבטיח שהוא משיג AI בר-הסבר, שהוא המפתח לכל ארגון מונע בינה מלאכותית בסביבה של היום. 

 

אלכס מקפרלנד הוא עיתונאי וסופר בינה מלאכותית הבוחן את ההתפתחויות האחרונות בתחום הבינה המלאכותית. הוא שיתף פעולה עם סטארט-אפים ופרסומים רבים של AI ברחבי העולם.