בדל סטארט-אפים יוצרים כלים לניטור בינה מלאכותית ולקידום שימוש בינה מלאכותית - Unite.AI
צור קשר

תקנה

סטארט-אפים יוצרים כלים לניטור בינה מלאכותית ולקידום שימוש בינה מלאכותית אתית

mm
מְעוּדכָּן on

במהלך השנה האחרונה, נראה שיותר ויותר תשומת לב מוקדשת להבטחת השימוש בבינה מלאכותית בדרכים אתיות. לגוגל ולמיקרוסופט יש את שניהם הזהיר לאחרונה את המשקיעים ששימוש לרעה באלגוריתמי בינה מלאכותית או אלגוריתמי בינה מלאכותית מעוצבים בצורה גרועה מהווה סיכונים אתיים ומשפטיים. בינתיים, מדינת קליפורניה החליטה לעשות זאת להעביר חשבון האוסר על שימוש בטכנולוגיית זיהוי פנים על ידי סוכנויות אכיפת החוק של קליפורניה.

לאחרונה, סטארט-אפים כמו ארתור ניסו לעצב כלים שיעזרו למהנדסי בינה מלאכותית לכמת ולכשיר את הביצועים של מודל למידת המכונה שלהם. כפי שדווח על ידי Wired, ארתור מנסה לתת למפתחי בינה מלאכותית ערכת כלים שתקל עליהם לגלות בעיות בעת תכנון יישומים פיננסיים, כמו חשיפת הטיה בהחלטות השקעה או הלוואות.

מאמציו של ארתור מכוונים לטפל ב בעיית "קופסה שחורה" של AI. בעיית הקופסה השחורה ב-AI מתארת ​​כיצד בניגוד לקוד מסורתי, שניתן לפרש בקלות על ידי מי שיודע לקרוא אותו, מערכות למידת מכונה ממפות תכונות להתנהגות מבלי לחשוף את הסיבות לכך שההתנהגויות הללו נבחרות/איך התכונות פורשו. במילים אחרות, במערכת קופסה שחורה המימוש המדויק של האלגוריתם הוא אטום.

מערכות למידת מכונה פועלות על ידי חילוץ דפוסים מנתוני קלט והיגיון לגבי דפוסים אלה. זה מושג בעצם על ידי כך שמחשב כותב את הקוד שלו על ידי מניפולציה של פונקציות מתמטיות מסוימות. על מנת לטפל בבעיה זו, חוקרים ומהנדסים זקוקים לכלים המקלים על התצפית והניתוח של התנהגות תוכנת למידת מכונה. סטארט-אפים כמו ארתור מכירים בקושי לפתור בעיה זו ואינם טוענים שיש להם את הפתרונות האופטימליים, אך הם מקווים להתקדם בתחום זה ולהפוך את פתיחת הקופסה השחורה לקצת יותר קלה. יש לקוות שאם ניתן יהיה לנתח מערכות בינה מלאכותית בקלות רבה יותר, יהיה קל יותר לתקן גם בעיות כמו הטיה.

לחברות גדולות כמו פייסבוק יש כבר כמה כלים לנתח את הפעולה הפנימית של מערכות למידת מכונה. לדוגמה, לפייסבוק יש כלי בשם Fairness Flow שנועד לוודא שהמודעות הממליצות על משרות לאנשים מכוונות לאנשים מכל הרקעים השונים. עם זאת, סביר להניח שצוותי AI גדולים לא ירצו להשקיע זמן ביצירת כלים כאלה, ולכן קיימת הזדמנות עסקית לחברות שרוצות ליצור כלי ניטור לשימוש חברות בינה מלאכותית.

ארתור מתמקד ביצירת כלים המאפשרים לחברות לתחזק ולנטר טוב יותר מערכות AI לאחר שהמערכת כבר נפרסה. הכלים של ארתור נועדו לאפשר לחברות לראות כיצד ביצועי המערכת שלהן משתנים לאורך זמן, מה שיאפשר לחברות לקלוט ביטויים פוטנציאליים של הטיה. אם תוכנת המלצת הלוואות של חברה מתחילה לא לכלול קבוצות מסוימות של לקוחות, ניתן להגדיר דגל המציין שהמערכת זקוקה לבדיקה על מנת להבטיח שהיא לא מפלה לקוחות על סמך תכונות רגישות כמו גזע או מין.

עם זאת, ארתור היא לא החברה היחידה שיצרה כלים המאפשרים לחברות בינה מלאכותית לבחון את הביצועים של האלגוריתמים שלהן. סטארטאפים רבים משקיעים ביצירת כלים להילחם בהטיות ולהבטיח כי נעשה שימוש אתי באלגוריתמי AI. Weights & Biases הוא סטארט-אפ נוסף שיצר כלים שיעזרו למהנדסי למידת מכונה לנתח בעיות פוטנציאליות ברשת שלהם. טויוטה השתמשה בכלים שנוצרו על ידי Weights & Biases כדי לנטר את מכשירי למידת המכונה שלהם בזמן שהם מתאמנים. בינתיים, הסטארט-אפ Fiddler עובד על יצירת מערך אחר של כלי ניטור AI. IBM אפילו יצרה שירות ניטור משלה בשם OpenScale.

ליז אוסאליבן, אחת היוצרות המשותפות של ארתור, הסבירה שהעניין ביצירת כלים שיעזרו לפתור את בעיית הקופסה השחורה מונע על ידי מודעות גוברת לכוחה של AI.

"אנשים מתחילים להבין עד כמה המערכות האלה יכולות להיות חזקות, ושהם צריכים לנצל את היתרונות בצורה אחראית", אמר אוסאליבן.