בדל מכון AI Now מזהיר מפני שימוש לרעה בתוכנות לזיהוי רגשות ובעיות אתיות אחרות - Unite.AI
צור קשר

אֶתִיקָה

מכון AI Now מזהיר מפני שימוש לרעה בתוכנות לזיהוי רגשות ובעיות אתיות אחרות

mm
מְעוּדכָּן on

מכון AI Now פרסם דו"ח שקורא למחוקקים ולגופים רגולטוריים אחרים להציב גבולות קשים על השימוש בטכנולוגיה לזיהוי רגשות, ולאסור על כך במקרים שבהם היא עשויה לשמש לקבלת החלטות חשובות כמו גיוס עובדים או קבלת סטודנטים. בנוסף, הדוח הכיל מספר הצעות נוספות בנוגע למגוון נושאים בתחום הבינה המלאכותית.

השמיים מכון AI Now הוא מכון מחקר שבסיסו ב-NYU, בעל המשימה לחקור את השפעת הבינה המלאכותית על החברה. בינה מלאכותית מפרסמת כעת דוח שנתי המדגים את הממצאים שלהם לגבי מצב מחקר בינה מלאכותית וההשלכות האתיות של אופן השימוש בבינה מלאכותית כיום. כפי שדיווח ה-BBC, הדו"ח של השנה התייחס לנושאים כמו אפליה אלגוריתמית, חוסר גיוון במחקר בינה מלאכותית ובעיות עבודה.

זיהוי השפעות, המונח הטכני לאלגוריתמים לזיהוי רגשות, הוא תחום צומח במהירות של מחקר בינה מלאכותית. אלה שמשתמשים בטכנולוגיה כדי לקבל החלטות טוענים לעתים קרובות שהמערכות יכולות לצייר מידע אמין על המצבים הרגשיים של אנשים על ידי ניתוח מיקרו-ביטויים, יחד עם רמזים אחרים כמו טון דיבור ושפת גוף. מכון AI Now מציין כי הטכנולוגיה מופעלת במגוון רחב של יישומים, כמו קביעת מי להעסיק, קביעת מחירי ביטוח ומעקב אחר אם התלמידים שמים לב בכיתה.

פרופ' קייט קרופורד, מייסדת שותפה של AI Now הסבירה שלעתים קרובות היא מאמינה שניתן לחזות במדויק רגשות אנושיים עם מודלים פשוטים יחסית. קרופורד אמר שכמה חברות מבססות את הפיתוח של התוכנה שלהן על עבודתו של פול אקמן, פסיכולוג ששיער שיש רק שישה סוגים בסיסיים של רגשות שנרשמים על הפנים. עם זאת, קרופורד מציין שמאז שהתיאוריה של אקמן הוצגה מחקרים מצאו כי השונות הרבה יותר גדולה בהבעות הפנים ושהבעות יכולות להשתנות בין מצבים ותרבויות בקלות רבה.

"במקביל עם השקת הטכנולוגיות הללו, מספר רב של מחקרים מראים כי אין... אין הוכחות משמעותיות לכך שלאנשים יש את הקשר העקבי הזה בין הרגש שאתה מרגיש לבין האופן שבו הפנים שלך נראים." אמר קרופורד ל-BBC.

מסיבה זו, מכון AI Now טוען שחלק ניכר מזיהוי השפעות מבוסס על תיאוריות לא אמינות ומדע מפוקפק. לפיכך, מערכות זיהוי רגשות לא אמורות להיפרס עד שנעשה מחקר נוסף וכי "ממשלות צריכות לאסור באופן ספציפי את השימוש בזיהוי השפעות בתהליכי קבלת החלטות בעלי חשיבות גבוהה". AI Now טענה שעלינו להפסיק במיוחד להשתמש בטכנולוגיה ב"הקשרים חברתיים ופוליטיים רגישים", בהקשרים הכוללים תעסוקה, חינוך ושיטור.

לפחות חברה אחת לפיתוח בינה מלאכותית המתמחה בזיהוי השפעות, Emteq, הסכימה שצריכה להיות רגולציה שמונעת שימוש לרעה בטכנולוגיה. מייסד Emteq, צ'רלס נדוקה, הסביר ל-BBC כי בעוד שמערכות בינה מלאכותית יכולות לזהות במדויק הבעות פנים שונות, אין מפה פשוטה מהבעה לרגש. נדוקה אכן הביעה דאגה מכך שהרגולציה נלקחת רחוק מדי וחונקת את המחקר, וציינה שאם "דברים ייאסרו, חשוב מאוד שאנשים לא יזרקו את התינוק עם מי האמבטיה".

כפי שמדווח NextWeb, AI Now המליץ ​​גם על מספר מדיניות ונורמות אחרות שאמורות להנחות את תעשיית הבינה המלאכותית קדימה.

בינה מלאכותית כעת הדגישה את הצורך של תעשיית הבינה המלאכותית להפוך את מקומות העבודה למגוונים יותר והצהירה כי יש להבטיח לעובדים את הזכות להביע את חששותיהם לגבי בינה מלאכותית פולשנית ונצלנית. לעובדי טכנולוגיה צריכה להיות גם הזכות לדעת אם מאמציהם משמשים לבניית עבודה מזיקה או לא אתית.

AI Now גם הציע למחוקקים לנקוט בצעדים כדי לדרוש הסכמה מדעת לשימוש בכל מידע שמקורו בבינה מלאכותית הקשורה לבריאות. מעבר לכך, הומלץ להתייחס לפרטיות הנתונים ברצינות רבה יותר וכי על המדינות לפעול לעיצוב חוקי פרטיות עבור נתונים ביומטריים המכסים גופים פרטיים וציבוריים כאחד.

לבסוף, המכון יעץ שתעשיית הבינה המלאכותית תתחיל לחשוב ולפעול באופן גלובלי יותר, בניסיון להתמודד עם ההשלכות הפוליטיות, החברתיות והאקולוגיות הגדולות יותר של בינה מלאכותית. הומלץ לעשות מאמץ משמעותי להסביר את ההשפעה של בינה מלאכותית לגבי תזוזה גיאוגרפית ואקלים, וכי ממשלות יהפכו את השפעת האקלים של תעשיית הבינה המלאכותית לזמינה לציבור.