בדל הצגת רמות חדשות של שקיפות עם AI - מובילי מחשבה - Unite.AI
צור קשר

מנהיגי מחשבה

הצגת רמות חדשות של שקיפות עם AI - מובילי מחשבה

mm
מְעוּדכָּן on

מאת Balakrishna DR, סגן נשיא בכיר, ראש הצעת שירותים - אנרגיה, תקשורת, שירותים ושירותי בינה מלאכותית ואוטומציה, ב- מידע

ב-9 בינואר 2020, ארגון הבריאות העולמי הודיע ​​לציבור על התפרצות נגיף הקורונה בסין. שלושה ימים לפני כן, המרכז האמריקאי לבקרת מחלות ומניעתן הוציא את הבשורה. אבל זה היה א פלטפורמת ניטור בריאות קנדית שהביסה את שניהם עד הסוף, שולחת הודעה על ההתפרצות ללקוחותיה כבר ב-31 בדצמבר 2019! הפלטפורמה, BlueDot משתמשת באלגוריתמים מונעי בינה מלאכותית אשר סורקים דיווחי חדשות בשפה זרה, רשתות מחלות של בעלי חיים וצמחים, והכרזות רשמיות כדי לתת ללקוחותיה אזהרה מוקדמת להימנע מאזורי סכנה כמו ווהאן.

במהלך השנים האחרונות, בינה מלאכותית הפכה למקור המפתח לטרנספורמציה, שיבוש ויתרון תחרותי בכלכלה המשתנה במהירות של ימינו. ממעקב אחר מגיפות להגנה ועד לשירותי בריאות ועד לרכבים אוטונומיים וכל מה שביניהם, AI זוכה לאימוץ נרחב. PwC צופה שבינה מלאכותית יכולה לתרום עד 15.7 טריליון דולר לכלכלה העולמית ב-2030, בקצב הצמיחה הנוכחי שלה.

עם זאת, למרות כל התקווה שה-AI מביאה, היא עדיין מציבה שאלות ללא מענה סביב שקיפות ואמינות. הצורך להבין, לחזות ולסמוך על יכולת קבלת ההחלטות של מערכות AI חשוב במיוחד בתחומים שהם קריטיים לחיים, למוות ולרווחה אישית.

 

אל הלא נודע

כאשר הוצגו לראשונה מערכות חשיבה אוטומטיות כדי לתמוך בקבלת החלטות, הן הסתמכו על כללים שנעשו בעבודת יד. למרות שזה הקל על הפרשנות וגם על שינוי ההתנהגות שלהם, הם לא היו ניתנים להרחבה. מודלים מבוססי למידת מכונה הגיעו כדי לענות על הצורך האחרון; הם לא דרשו התערבות אנושית ויכלו להתאמן על פי נתונים - כמה שיותר יותר טוב. בעוד שמודלים של למידה עמוקה הם ללא תחרות ביכולת הדוגמנות שלהם ובהיקף היישום שלהם, העובדה שמודלים אלה הם קופסאות שחורות לרוב, מעלה שאלות מטרידות לגבי אמיתותם, מהימנותם והטיותיהם בהקשר של השימוש הרחב בהם.

אין כיום מנגנון ישיר להתחקות אחר ההיגיון המשמש באופן מרומז במודלים של למידה עמוקה. עם מודלים של למידת מכונה שיש להם אופי של קופסה שחורה, הסוג העיקרי של יכולת הסבר ידוע כהסבר פוסט-הוק, מה שמרמז שההסברים נגזרים מהטבע והמאפיינים של התפוקות שנוצרו על ידי המודל. ניסיונות מוקדמים לחלץ כללים מרשתות עצביות (כפי שהייתה ידועה קודם לכן למידה עמוקה) אינם נמשכים כיום מכיוון שהרשתות הפכו לגדולות ומגוונות מדי עבור מיצוי כללים שניתן לטפל בהם. יש, אם כן, צורך דחוף להכניס פרשנות ושקיפות לתוך המרקם של מודל AI.

 

צאו מהלילה, היכנסו לאור

דאגה זו יצרה צורך בשקיפות בלמידת מכונה, מה שהוביל לצמיחת הבינה המלאכותית הניתנת להסבר, או XAI. הוא מבקש לטפל בבעיות העיקריות שמפריעות ליכולתנו לסמוך באופן מלא על קבלת החלטות בינה מלאכותית - כולל הטיה ושקיפות. תחום חדש זה של בינה מלאכותית מביא אחריות על מנת להבטיח שבינה מלאכותית תורמת לחברה עם תוצאות טובות יותר לכל המעורבים.

XAI יהיה קריטי בסיוע בהטיה הטבועה במערכות AI ובאלגוריתמים, המתוכנתים על ידי אנשים שהרקע והניסיון שלהם מובילים ללא כוונה לפיתוח מערכות בינה מלאכותית המפגינות הטיה. הטיות לא רצויות כמו אפליה לרעה של לאום מסוים או מוצא אתני עלולות להתגנב מכיוון שהמערכת מוסיפה לה ערך על סמך נתונים אמיתיים. לשם המחשה, ניתן למצוא שפורעי הלוואות טיפוסיים מגיעים מרקע אתני מסוים, עם זאת, יישום כל מדיניות מגבילה המבוססת על כך עשויה להיות מנוגדת לנהלים הוגנים. נתונים שגויים הם סיבה נוספת להטיה. דוגמה, אם סורק זיהוי פנים מסוים אינו מדויק 5% מהמקרים בגלל גוון העור של האדם או האור הנופל על הפנים, זה עלול להביא להטיה. לבסוף, אם נתוני המדגם שלך אינם ייצוג אמיתי של כלל האוכלוסייה, הטיה היא בלתי נמנעת.

XAI שואפת לתת מענה לאופן שבו מגיעים להחלטות הקופסה השחורה של מערכות בינה מלאכותית. הוא בודק ומנסה להבין את השלבים והמודלים הכרוכים בקבלת החלטות. הוא עונה על שאלות מכריעות כמו: מדוע מערכת הבינה המלאכותית עשתה תחזית או החלטה ספציפית? למה מערכת הבינה המלאכותית לא עשתה משהו אחר? מתי מערכת ה-AI הצליחה או נכשלה? מתי מערכות בינה מלאכותית נותנות מספיק אמון בהחלטה שאפשר לסמוך עליה, וכיצד מערכת AI יכולה לתקן שגיאות?

 

AI ניתן להסבר, צפוי ומעקב

אחת הדרכים להשיג יכולת הסבר במערכות AI היא להשתמש באלגוריתמים של למידת מכונה הניתנים להסבר מטבעם. לדוגמה, צורות פשוטות יותר של למידת מכונה כמו עצי החלטות, מסווגים בייסיאניים ואלגוריתמים אחרים שיש להם כמויות מסוימות של עקיבות ושקיפות בקבלת ההחלטות שלהם. הם יכולים לספק את הנראות הדרושה למערכות AI קריטיות מבלי להקריב יותר מדי ביצועים או דיוק.

הבחינה בצורך לספק הסבר ללמידה עמוקה וגישות אלגוריתמיות אחרות מורכבות יותר, הסוכנות לפרויקטים מתקדמים של ההגנה האמריקאית (DARPA) ממשיכה במאמצים לייצר פתרונות AI הניתנים להסבר באמצעות מספר יוזמות מחקר במימון. DARPA מתאר את יכולת ההסבר של AI בשלושה חלקים הכוללים: דיוק חיזוי, כלומר מודלים יסבירו כיצד מגיעים למסקנות כדי לשפר את קבלת ההחלטות בעתיד; הבנת החלטה ולסמוך ממשתמשים וממפעילים אנושיים, כמו גם בדיקה ומעקב אחר פעולות מבוצע על ידי מערכות הבינה המלאכותית.

העקיבות תאפשר לבני אדם להיכנס ללולאות החלטות בינה מלאכותית ולהיות בעלי יכולת לעצור, או לשלוט במשימותיו, בכל עת שיתעורר הצורך. מערכת בינה מלאכותית לא רק צפויה לבצע משימה מסוימת או להטיל החלטות, אלא גם לספק דוח שקוף מדוע היא קיבלה החלטות ספציפיות עם הרציונל התומך.

סטנדרטיזציה של אלגוריתמים או אפילו גישות XAI אינה אפשרית כרגע, אבל בהחלט ייתכן שניתן יהיה לבצע סטנדרטיזציה של רמות השקיפות / רמות ההסבר. ארגוני תקנים מנסים להגיע להבנות משותפות וסטנדרטיות של רמות השקיפות הללו כדי להקל על התקשורת בין משתמשי קצה וספקי טכנולוגיה.

ככל שממשלות, מוסדות, ארגונים והציבור הרחב מתחילים להיות תלויים במערכות מבוססות בינה מלאכותית, זכייה באמונם באמצעות שקיפות ברורה יותר של תהליך קבלת ההחלטות תהיה בסיסית. השקת הכנס העולמי הראשון המוקדש בלעדית ל-XAI, הכנס הבינלאומי המשותף לבינה מלאכותית: סדנה בנושא אינטליגנציה מלאכותית מוסברת, היא הוכחה נוספת לכך שעידן XAI הגיע.

Balakrishna, הידוע בכינויו באלי DR, הוא ראש תחום בינה מלאכותית ואוטומציה ב אינפוסיס שם הוא מניע הן אוטומציה פנימית עבור Infosys והן מספק שירותי אוטומציה עצמאיים הממנפים מוצרים עבור לקוחות. באלי עובדת עם Infosys כבר יותר מ-25 שנה ומילאה תפקידי מכירות, ניהול תוכניות והספקה במקומות גיאוגרפיים שונים ובענפים שונים בתעשייה.