בדל הסבר יכול לתת מענה לבעיית הבינה המלאכותית של כל תעשייה: חוסר השקיפות - Unite.AI
צור קשר

מנהיגי מחשבה

הסבר יכול לתת מענה לבעיית הבינה המלאכותית של כל תעשייה: חוסר השקיפות

mm

יצא לאור

 on

על ידי: מיגל ג'טה, סמנכ"ל נאום מו"פ, לְהַאִיץ.

בשלבים המתהווים שלה, AI אולי הצליחה לנוח על זרי הדפנה של חדשנות. זה היה בסדר שלמידת מכונה תלמד לאט ותשמור על תהליך אטום שבו חישוב ה-AI אינו אפשרי עבור הצרכן הממוצע לחדור. זה משתנה. ככל שתעשיות רבות יותר כמו בריאות, פיננסים ומערכת המשפט הפלילי מתחילות למנף בינה מלאכותית בדרכים שיכולות להיות להן השפעה אמיתית על חייהם של אנשים, יותר אנשים רוצים לדעת כיצד נעשה שימוש באלגוריתמים, כיצד מקור הנתונים, ופשוט עד כמה היכולות שלו מדויקות. אם חברות רוצות להישאר בחזית החדשנות בשווקים שלהן, הן צריכות להסתמך על AI שהקהל שלהם יבטח בו. הסבר בינה מלאכותית היא המרכיב העיקרי להעמקת הקשר הזה.

הסברה של בינה מלאכותית שונה מהליכי AI סטנדרטיים מכיוון שהיא מציעה לאנשים דרך להבין כיצד אלגוריתמים של למידת מכונה יוצרים פלט. AI בר-הסבר היא מערכת שיכולה לספק לאנשים תוצאות פוטנציאליות ו חסרונות. זוהי מערכת למידת מכונה שיכולה למלא את הרצון האנושי להוגנות, אחריות וכבוד לפרטיות. AI בר-הסבר הכרחי לעסקים לבנות אמון עם צרכנים.

בעוד AI מתרחב, ספקי AI צריכים להבין שהקופסה השחורה לא יכולה. מודלים של קופסה שחורה נוצרים ישירות מהנתונים ולעתים קרובות אפילו המפתח שיצר את האלגוריתם לא יכול לזהות מה הניע את ההרגלים הנלמדים של המכונה. אבל הצרכן המצפוני לא רוצה לעסוק במשהו כל כך בלתי חדיר שאי אפשר לתת לו דין וחשבון. אנשים רוצים לדעת כיצד אלגוריתם בינה מלאכותית מגיע לתוצאה ספציפית ללא המסתורין של קלט מקור ופלט מבוקר, במיוחד כאשר החישובים השגויים של בינה מלאכותית נובעים לרוב מהטיות מכונה. ככל שה-AI מתקדם יותר, אנשים רוצים גישה לתהליך למידת מכונה כדי להבין איך האלגוריתם הגיע לתוצאה הספציפית שלו. מנהיגים בכל תעשייה חייבים להבין שבמוקדם או במאוחר, אנשים לא יעדיפו עוד את הגישה הזו אלא ידרשו אותה כרמה הכרחית של שקיפות.

מערכות ASR כגון עוזרי קול, טכנולוגיית תמלול ושירותים אחרים הממירים דיבור אנושי לטקסט הן במיוחד נגוע בהטיות. כאשר השירות משמש לאמצעי בטיחות, טעויות עקב מבטאים, גילו או הרקע של אדם, עלולות להיות טעויות חמורות, ולכן יש להתייחס לבעיה ברצינות. ניתן להשתמש ב-ASR ביעילות במצלמות גוף משטרתיות, למשל, כדי להקליט ולתמלל אינטראקציות באופן אוטומטי - שמירה על תיעוד שאם יועתק בצורה מדויקת, יכול להציל חיים. תרגול ההסבר ידרוש שה-AI לא יסתמך רק על מערכי נתונים שנרכשו, אלא יבקש להבין את המאפיינים של האודיו הנכנס שעשויים לתרום לשגיאות אם קיימות. מהו הפרופיל האקוסטי? יש רעש ברקע? האם הדובר ממדינה שאינה ראשונה באנגלית או מדור שמשתמש באוצר מילים שה-AI עדיין לא למד? למידת מכונה צריכה להיות פרואקטיבית בלמידה מהירה יותר והיא יכולה להתחיל באיסוף נתונים שיכולים לתת מענה למשתנים הללו.

ההכרח הופך ברור, אבל לדרך ליישם מתודולוגיה זו לא תמיד יהיה פתרון קל. התשובה המסורתית לבעיה היא הוספת נתונים נוספים, אך יהיה צורך בפתרון מתוחכם יותר, במיוחד כאשר מערכי הנתונים הנרכשים שחברות רבות משתמשות בהן הם מוטים מטבעם. הסיבה לכך היא שמבחינה היסטורית, היה קשה להסביר החלטה מסוימת שניתנה על ידי ה-AI וזה נובע מאופי המורכבות של המודלים מקצה לקצה. עם זאת, אנחנו יכולים עכשיו, ואנחנו יכולים להתחיל בשאלה איך אנשים איבדו את האמון ב-AI מלכתחילה.

באופן בלתי נמנע, AI תעשה טעויות. חברות צריכות לבנות מודלים שמודעים לחסרונות פוטנציאליים, לזהות מתי ואיפה הבעיות מתרחשות וליצור פתרונות מתמשכים לבניית מודלים חזקים יותר של AI:

  1. כשמשהו משתבש, מפתחים יצטרכו להסביר מה קרה ו לפתח תוכנית מיידית לשיפור המודל כדי להפחית טעויות דומות בעתיד.
  2. כדי שהמכונה באמת תדע אם היא נכונה או לא, מדענים צריכים לדעת ליצור לולאת משוב כך שבינה מלאכותית תוכל ללמוד את החסרונות שלה ולהתפתח.
  3. דרך נוספת של ASR לבנות אמון בזמן שה-AI עדיין משתפר היא לעשות זאת ליצור מערכת שיכולה לספק ציוני ביטחון, ולהציע סיבות מדוע ה-AI פחות בטוח. לדוגמה, חברות בדרך כלל מייצרות ציונים מאפס עד 100 כדי לשקף את חוסר השלמות של ה-AI שלהן וליצור שקיפות עם הלקוחות שלהן. בעתיד, מערכות עשויות לספק הסברים פוסט-הוק מדוע האודיו היה מאתגר על ידי מתן יותר מטא נתונים על האודיו, כגון רמת רעש נתפסת או מבטא פחות מובן.

שקיפות נוספת תגרום לפיקוח אנושי טוב יותר על אימון וביצועי AI. ככל שאנו פתוחים יותר לגבי היכן אנו צריכים לשפר, כך אנו אחראים יותר לנקוט בפעולות על שיפורים אלו. לדוגמה, חוקר עשוי לרצות לדעת מדוע הוצא טקסט שגוי כדי שיוכל להפחית את הבעיה, בעוד שמתמלל עשוי לרצות הוכחות מדוע ASR פירש לא נכון את הקלט כדי לעזור להעריך את תקפותו. שמירה על בני אדם בלולאה יכולה להקל על כמה מהבעיות הברורות ביותר שמתעוררות כאשר AI לא נבדק. זה גם יכול להאיץ את הזמן הנדרש ל-AI כדי לתפוס את השגיאות שלו, לשפר ובסופו של דבר לתקן את עצמו בזמן אמת.

ל-AI יש את היכולות לשפר את חייהם של אנשים, אבל רק אם בני אדם בונים אותה כדי לייצר כראוי. אנחנו צריכים לתת דין וחשבון לא רק למערכות האלה אלא גם לאנשים שמאחורי החדשנות. מערכות AI של העתיד צפויות לדבוק בעקרונות שנקבעו על ידי אנשים, ורק עד אז תהיה לנו מערכת שאנשים סומכים עליה. הגיע הזמן להניח את התשתית ולחתור לעקרונות האלה עכשיו בעוד בסופו של דבר זה עדיין בני אדם המשרתים את עצמנו.

מיגל ג'טה הוא ראש מו"פ בינה מלאכותית ב- לְהַאִיץ, פלטפורמת תמלול דיבור לטקסט המשלבת בינה מלאכותית עם בני אדם מיומנים. הוא מוביל את הצוות האחראי לפיתוח פלטפורמת הבינה המלאכותית של דיבור לטקסט המדויקת ביותר בעולם. נלהב בפתרון בעיות מורכבות תוך שיפור חיים, הוא מסור להגברת ההכלה והשוויון באמצעות טכנולוגיה. במשך יותר משני עשורים הוא פעל להטמעת טכנולוגיות קול עם חברות כולל Nuance Communications ו-VoiceBox. הוא קיבל תואר שני במתמטיקה וסטטיסטיקה מאוניברסיטת מקגיל במונטריאול. כשהוא לא מקדם תקשורת באמצעות AI הוא מבלה את זמנו כצלם בתחרויות טיפוס צוקים.