בדל מה זה בינה מלאכותית אחראית? עקרונות, אתגרים ויתרונות - Unite.AI
צור קשר
כיתת אמן בינה מלאכותית:

AI 101

מה זה בינה מלאכותית אחראית? עקרונות, אתגרים ויתרונות

mm
מְעוּדכָּן on
אדם מחזיק את הגלובוס בידיו בעמידה בשדות.

AI אחראי (RAI) מתייחס לתכנון ופריסה של מערכות AI שקופות, חסרות פניות, אחראיות ועוקבות אחר הנחיות אתיות. ככל שמערכות בינה מלאכותית הופכות חזקות ונפוצות יותר, חשוב להבטיח שהן מפותחות בצורה אחראית ולפי הנחיות בטיחות ואתיות.

בריאות, תחבורה, ניהול רשת ומעקב הם יישומי בינה מלאכותית קריטית לבטיחות שבו לכשל במערכת עלולות להיות השלכות חמורות. חברות גדולות מודעות לכך ש-RAI חיוני להפחתת סיכונים טכנולוגיים. אולם על פי דו"ח MIT Sloan/BCG שכלל 1093 משיבים, 54% מהחברות חסרו מומחיות וכישרון בינה מלאכותית אחראית.

למרות שמובילי מחשבה וארגונים פיתחו עקרונות עבור AI אחראי, הבטחת פיתוח אחראי של מערכות AI עדיין מהווה אתגרים. בואו נחקור את הרעיון הזה בפירוט:

5 עקרונות לבינה מלאכותית אחראית

1. הוגנות

טכנולוגים צריכים לתכנן נהלים כך שמערכות בינה מלאכותית יטפלו בכל הפרטים והקבוצות בצורה הוגנת ללא משוא פנים. לפיכך, הגינות היא הדרישה העיקרית בבקשות לקבלת החלטות בסיכון גבוה.

הגינות זה מוגדר כ:

"בחינת ההשפעה על קבוצות דמוגרפיות שונות ובחירה באחת מכמה הגדרות מתמטיות של הוגנות קבוצתית שתענה בצורה נאותה על סט הדרישות המשפטיות, התרבותיות והאתיות הרצויות."

2. דין וחשבון

אחריות פירושה יחידים וארגונים המפתחים ופריסה של מערכות AI צריכים להיות אחראים להחלטות ולפעולות שלהם. הצוות שפורס מערכות AI צריך להבטיח שמערכת ה-AI שלהם שקופה, ניתנת לפירוש, ניתנת לביקורת ואינה פוגעת בחברה.

אחריות כוללת שבע רכיבים you

  1. הקשר (מטרה שלשמה נדרשת אחריות)
  2. טווח (נושא אחריות)
  3. סוכן (מי אחראי?)
  4. פורום (אליו חייב הגורם האחראי לדווח)
  5. תקנים (קריטריונים לאחריות)
  6. תהליך (שיטת אחריות)
  7. השלכות (השלכות של אחריות)

3. שקיפות

שקיפות פירושה שהסיבה מאחורי קבלת החלטות במערכות AI ברורה ומובנת. ניתן להסביר מערכות AI שקופות.

לפי רשימת הערכה לבינה מלאכותית אמינה (ALTAI), לשקיפות יש שלושה מרכיבים מרכזיים:

  1. מעקב (הנתונים, שלבי העיבוד המקדים והמודל נגישים)
  2. יכולת הסבר (הנימוק מאחורי קבלת החלטות/ניבוי ברור)
  3. תקשורת פתוחה (לגבי מגבלה של מערכת הבינה המלאכותית)

4. פְּרָטִיוּת

פרטיות היא אחד העקרונות העיקריים של AI אחראי. זה מתייחס להגנה על מידע אישי. עיקרון זה מבטיח שהמידע האישי של אנשים נאסף ומעובד בהסכמה ושמור מחוץ לידיים של אנשים לא מרוצים.

כפי שהוכח לאחרונה, היה מקרה של Clearview, חברה שמייצרת מודלים לזיהוי פנים עבור רשויות אכיפת החוק ואוניברסיטאות. כלבי השמירה על הנתונים של בריטניה תבע את Clearview AI על 7.5 מיליון פאונד לאיסוף תמונות של תושבי בריטניה ממדיה חברתית ללא הסכמה ליצירת מסד נתונים של 20 מיליארד תמונות.

5. ביטחון

אבטחה פירושה להבטיח שמערכות AI מאובטחות ואינן מאיימות על החברה. דוגמה לאיום אבטחת בינה מלאכותית היא התקפות נגד. ההתקפות הזדוניות הללו מרעות מודלים של ML לקבל החלטות שגויות. הגנה על מערכות בינה מלאכותית מפני התקפות סייבר היא הכרחית לבינה מלאכותית אחראית.

4 אתגרים וסיכונים עיקריים של בינה מלאכותית אחראית

1. הֲטָיָה

הטיות אנושיות הקשורות לגיל, מגדר, לאום וגזע יכולות להשפיע על איסוף הנתונים, מה שעלול להוביל למודלים מוטים של AI. מחקר של משרד המסחר האמריקאי גילה שזיהוי פנים בינה מלאכותית מזהה אנשים צבעוניים בטעות. מכאן ששימוש בבינה מלאכותית לזיהוי פנים באכיפת החוק יכול להוביל למעצרים לא חוקיים. כמו כן, יצירת דגמי AI הוגנים היא מאתגרת כי יש 21 פרמטרים שונים כדי להגדיר אותם. אז, יש פשרה; סיפוק פרמטר AI הוגן אחד פירושו להקריב אחר.

2. פרשנות

פרשנות היא אתגר קריטי בפיתוח AI אחראי. זה מתייחס להבנה כיצד מודל למידת המכונה הגיע למסקנה מסוימת.

רשתות עצביות עמוקות חסרות פרשנות מכיוון שהן פועלות כקופסאות שחורות עם שכבות מרובות של נוירונים נסתרים, מה שמקשה על הבנת תהליך קבלת ההחלטות. זה יכול להוות אתגר בקבלת החלטות בעלות סיכון כמו בריאות, פיננסים וכו'.

יתרה מכך, פורמליזציה של הפרשנות במודלים של ML היא מאתגרת מכיוון שכן אישי ו ספציפי לתחום.

3. ממשל

ממשל מתייחס למערכת של כללים, מדיניות ונהלים המפקחים על הפיתוח והפריסה של מערכות AI. לאחרונה חלה התקדמות משמעותית בשיח ממשל בינה מלאכותית, כאשר ארגונים מציגים מסגרות והנחיות אתיות.

הנחיות אתיקה עבור AI מהימן על ידי האיחוד האירופימסגרת האתיקה של AI אוסטרלית, ו עקרונות AI של ה-OECD הן דוגמאות למסגרות ממשל בינה מלאכותית.

אבל ההתקדמות המהירה ב-AI בשנים האחרונות יכולה לעלות על מסגרות הממשל של AI אלה. לשם כך, צריכה להיות מסגרת שמעריכה את ההגינות, הפרשנות והאתיקה של מערכות בינה מלאכותית.

4. רגולציה

ככל שמערכות בינה מלאכותית נעשות נפוצות יותר, צריכה להיות רגולציה כדי להתחשב בערכים אתיים וחברתיים. פיתוח רגולציה שאינה חונקת חדשנות בינה מלאכותית היא אתגר קריטי בבינה מלאכותית אחראית.

אפילו עם תקנת הגנת מידע כללית (GDPR), חוק פרטיות הצרכן של קליפורניה (CCPA) וחוק הגנת המידע האישי (PIPL) כגופים רגולטוריים, חוקרי בינה מלאכותית מצאו כי 97% מאתרי האיחוד האירופי אינם עומדים בדרישות המסגרת החוקית של GDPR.

יתרה מכך, המחוקקים עומדים בפני א אתגר משמעותי בהגעה להסכמה על ההגדרה של בינה מלאכותית הכוללת הן מערכות בינה מלאכותיות קלאסיות והן יישומי הבינה המלאכותית העדכניים ביותר.

3 היתרונות העיקריים של AI אחראי

1. הטיה מופחתת

AI אחראי מפחית הטיה בתהליכי קבלת החלטות, ובונה אמון במערכות AI. הפחתת הטיה במערכות בינה מלאכותית יכולה לספק מערכת בריאות הוגנת ושוויונית ומפחיתה הטיה במערכות בינה מלאכותיות. שירותים פיננסיים וכו '

2. שקיפות מוגברת

בינה מלאכותית אחראית מייצרת יישומי בינה מלאכותית שקופה הבונה אמון במערכות בינה מלאכותית. מערכות AI שקופות להפחית את הסיכון לטעות ושימוש לרעה. שקיפות מוגברת מקלה על ביקורת מערכות בינה מלאכותית, זוכה לאמון של בעלי עניין ויכולה להוביל למערכות בינה מלאכותית אחראיות.

3. אבטחה טובה יותר

יישומי AI מאובטחים מבטיחים פרטיות נתונים, מייצרים פלט אמין ובלתי מזיק, ובטוחים מפני התקפות סייבר.

ענקיות טק כמו מיקרוסופט ו Google, שנמצאות בחזית פיתוח מערכות בינה מלאכותית, פיתחו עקרונות בינה מלאכותית אחראית. בינה מלאכותית אחראית מבטיחה שהחדשנות ב-AI אינה מזיקה ליחידים ולחברה.

מנהיגי מחשבה, חוקרים, ארגונים ורשויות משפטיות צריכים לשנות ללא הרף את ספרות הבינה המלאכותית האחראית כדי להבטיח עתיד בטוח לחדשנות בינה מלאכותית.

לתוכן נוסף הקשור לבינה מלאכותית, בקר unite.ai.