בדל גוגל יוצרת תוכנית AI חדשה להסבר כדי לשפר את השקיפות והאפשרות לניפוי באגים - Unite.AI
צור קשר

אֶתִיקָה

גוגל יוצרת תוכנית בינה מלאכותית חדשה להסבר כדי לשפר את השקיפות והאפשרות לניפוי באגים

mm

יצא לאור

 on

רק לאחרונה, גוגל הכריזה על יצירת פלטפורמת ענן חדשה שנועדה לקבל תובנה לגבי האופן שבו תוכנית בינה מלאכותית נותנת החלטות, להקל על ניפוי באגים ולשפר את השקיפות. כפי שדווח על ידי הקופה, פלטפורמת הענן נקראת Explainable AI, והיא מסמנת ניסיון גדול של גוגל להשקיע בהסבר הבינה המלאכותית.

רשתות עצבים מלאכותיות מועסקות ברבות, אולי ברובן, ממערכות הבינה המלאכותיות העיקריות המועסקות בעולם כיום. הרשתות העצביות שמריצות יישומי AI גדולים יכולות להיות מורכבות וגדולות בצורה יוצאת דופן, וככל שמורכבות המערכת גדלה, קשה יותר ויותר להבין מדוע התקבלה החלטה מסוימת על ידי המערכת. כפי שגוגל מסבירה במאמר הלבן שלהם, ככל שמערכות בינה מלאכותית הופכות חזקות יותר, הן גם הופכות מורכבות יותר ולכן קשה יותר לנפות אותן. שקיפות אובדת גם כאשר זה מתרחש, מה שאומר שאלגוריתמים מוטים יכולים להיות קשים לזיהוי ולטפל.

לעובדה שההיגיון שמניע את התנהגותן של מערכות מורכבות כל כך קשה לפירוש יש לרוב השלכות דרסטיות. בנוסף להקשה על הטיית בינה מלאכותית, זה יכול להקשות בצורה יוצאת דופן על זיהוי מתאמים מזויפים מקורלציות חשובות ומעניינות באמת.

חברות וקבוצות מחקר רבות בודקות כיצד לטפל בבעיית "הקופסה השחורה" של בינה מלאכותית וליצור מערכת שמסבירה בצורה מספקת מדוע החלטות מסוימות התקבלו על ידי בינה מלאכותית. פלטפורמת ה-Explainable AI של גוגל מייצגת את ההצעה שלה להתמודד עם האתגר הזה. AI ניתן להסבר מורכב משלושה כלים שונים. הכלי הראשון הוא מערכת שמתארת ​​אילו תכונות נבחרו על ידי AI והוא גם מציג ציון ייחוס המייצג את מידת ההשפעה שיש לתכונה מסוימת על התחזית הסופית. הדוח של גוגל על ​​הכלי נותן דוגמה לניבוי כמה זמן תימשך רכיבת אופניים על סמך משתנים כמו גשמים, טמפרטורה נוכחית, יום בשבוע ושעת התחלה. לאחר שהרשת נותנת את ההחלטה, ניתן משוב המציג אילו תכונות השפיעו הכי הרבה על התחזיות.

איך הכלי הזה מספק משוב כזה במקרה של נתוני תמונה? במקרה זה, הכלי מייצר שכבת-על שמדגישה את האזורים בתמונה שהשפיעו בצורה הכבדה ביותר על ההחלטה שניתנה.

כלי נוסף שנמצא בערכת הכלים הוא הכלי "What-If", המציג תנודות פוטנציאליות בביצועי המודל כאשר תכונות בודדות עוברות מניפולציה. לבסוף, ניתן להגדיר את הכלי האחרון שמאפשר לתת תוצאות לדוגמה לבודקים אנושיים בלוח זמנים עקבי.

ד"ר אנדרו מור, המדען הראשי של גוגל ל-AI ולמידת מכונה, תיאר את ההשראה לפרויקט. מור הסביר שלפני כחמש שנים הקהילה האקדמית התחילה להיות מודאגת מתוצרי הלוואי המזיקים של שימוש בבינה מלאכותית ושגוגל רצתה להבטיח שהמערכות שלהם נמצאות בשימוש רק בדרכים אתיות. מור תיאר תקרית שבה החברה ניסתה לתכנן תוכנית ראייה ממוחשבת כדי להתריע בפני פועלי בניין אם מישהו לא חובש קסדה, אבל הם מתחילים לדאוג שהניטור עלול להילקח רחוק מדי ולהפוך לדה-הומניזציה. מור אמר שיש סיבה דומה לכך שגוגל החליטה לא לשחרר ממשק API כללי לזיהוי פנים, מכיוון שהחברה רצתה לקבל יותר שליטה על אופן השימוש בטכנולוגיה שלה ולהבטיח שהיא משמשת רק בדרכים אתיות.

גם מור הדגישה למה זה היה כל כך חשוב שההחלטה של ​​AI תהיה ניתנת להסבר:

"אם יש לך מערכת קריטית לבטיחות או דבר חשוב מבחינה חברתית שעשויות להיות לו השלכות לא מכוונות אם אתה חושב שהמודל שלך עשה טעות, אתה צריך להיות מסוגל לאבחן את זה. אנחנו רוצים להסביר היטב מה הסבר יכול לעשות ומה לא יכול לעשות. זה לא תרופת פלא.