ืืื ื ืืืืืืชืืช 101
ืืื AI ืืืจืื? ืขืงืจืื ืืช, ืืชืืจืื ืืืชืจืื ืืช

AI אחראי (RAI) מתייחס לעיצוב ופריסה של מערכות AI שקופות, לא מוטות, אחראיות ומתאימות לקווים מנחים אתיים. ככל שמערכות AI הופכות לחזקות ונפוצות יותר, הבטחת התפתחותן באופן אחראי ועקביית הנחיות בטיחות ואתיות היא חיונית.
בריאות, תחבורה, ניהול רשת ומעקב הן יישומי AI ביקורתיים שבהם כשל מערכת יכול להיות בעל השלכות קשות. חברות גדולות מודעות לכך ש-RAI הוא חיוני להפחתת סיכונים טכנולוגיים. עם זאת, על פי דו”ח MIT Sloan/BCG שכלל 1093 נבדקים, 54% מהחברות חסרות מומחיות וכישורים ב-RAI.
אף על פי שמנהיגי מחשבה וארגונים פיתחו עקרונות ל-AI אחראי, הבטחת פיתוח אחראי של מערכות AI עדיין מציגה אתגרים. בואו נחקור רעיון זה בפירוט:
5 עקרונות ל-AI אחראי
1. הוגנות
טכנולוגים צריכים לעצב הליכים כך שמערכות AI יטפלו בכל היחידים והקבוצות בהוגנות, ללא הטיה. לכן, הוגנות היא הדרישה הראשונית ביותר ביישומי קבלת החלטות בעלי סיכון גבוה.
הוגנות מוגדרת כ:
”בדיקת ההשפעה על קבוצות דמוגרפיות שונות ובחירת אחת ממספר הגדרות מתמטיות של הוגנות קבוצתית שתספק באופן מספק את קבוצת הדרישות המשפטיות, תרבותיות ואתיות הרצויות.”
2. אחריות
אחריות משמעותה שיחידים וארגונים המפתחים ומפריסים מערכות AI צריכים להיות אחראים להחלטות ופעולותיהם. הצוות המפריס מערכות AI צריך לוודא שמערכת ה-AI שלהם שקופה, מובנת, ניתנת לבקרה ואינה פוגעת בחברה.
אחריות כוללת שבעה מרכיבים:
- הקשר (מטרה לשם אחריות)
- טווח (נושא האחריות)
- סוכן (מי אחראי?)
- פורום (לפני מי חייב הגורם האחראי לדווח)
- סטנדרטים (קריטריונים לאחריות)
- תהליך (שיטת אחריות)
- השלכות (תוצאות האחריות)
3. שקיפות
שקיפות משמעותה שהסיבה לקבלת החלטות במערכות AI ברורה ומובנת. מערכות AI שקופות הן מובנות.
על פי רשימת הערכה ל-AI אמין (ALTAI), שקיפות היא בעלת שלושה מרכיבים מרכזיים:












