ืื ืืืื ืืขื
ืืฉืืคืช ืืืื ืืืื ืช ืืืืื ื: ืืชืืจืื ืืคืชืจืื ืืช
התקדמות האחרונה של generative AI הביאה לפריצת דרך ביישומים של תאגידים בתחומים שונים, כולל פיננסים, בריאות, תחבורה. פיתוח הטכנולוגיה הזו יוביל גם לטכנולוגיות אחרות, כגון טכנולוגיות הגנה על סייבר, קוונטום וטכניקות תקשורת אלחוטית. אולם, התפוצצות הטכנולוגיות האלה באה עם אתגרים משלה.
למשל, אימוץ ה- AI עלול לאפשר התקפות סייבר מתוחכמות יותר, בעיות של זיכרון ואחסון בגלל עלייה בעוצמת החישוב ודאגות אתיות של הטיה המוצגת על ידי מודלים של AI. החדשות הטובות הן ש- NTT Research הציעה דרך להתגבר על הטיה ברשתות נוירונים עמוקות (DNNs), סוג של בינת מכונה.
מחקר זה הוא פריצת דרך משמעותית, שכן מודלים של AI ללא הטיה יתרמו להעסקה, מערכת הצדק הפלילי ובריאות, כאשר הם לא מושפעים ממאפיינים כגון גזע, מין. בעתיד, אפליה עלולה להיעלם על ידי שימוש במערכות אוטומטיות אלה, וכך לשפר יוזמות עסקיות של DE&I בתעשייה. לבסוף, מודלים של AI עם תוצאות ללא הטיה ישפרו את הפרודוקטיביות ויקצרו את הזמן שלוקח לבצע משימות אלה. אולם, מעט עסקים נאלצו לעצור את תוכניות ה- AI שלהם בגלל הטיה של הטכנולוגיה.
למשל, Amazon הפסיקה את השימוש באלגוריתם להעסקה, כאשר גילתה שהאלגוריתם הציג העדפה למועמדים שהשתמשו במילים כמו “executed” או “captured” יותר תכופות, שהיו נפוצות יותר בקורות חיים של גברים. דוגמה אחרת של הטיה מגיעה מ- Joy Buolamwini, אחד מאנשי ה- AI המשפיעים ביותר ב- 2023, על פי TIME, בשיתוף עם Timnit Gebru ב- MIT, הראתה כי טכנולוגיות ניתוח פנים הציגו שיעורי טעות גבוהים יותר כאשר הם מעריכים מיעוטים, במיוחד נשים מיעוט, אולי בגלל נתוני אימון שאינם מייצגים מספיק.
בשנים האחרונות, DNNs הפכו לנפוצות במדע, הנדסה ועסקים, ואפילו ביישומים פופולריים, אבל הן לעיתים קרובות תלויות בתכונות מזויפות שעלולות להציג הטיה. על פי MIT study במהלך השנים האחרונות, מדענים פיתחו DNNs שיכולות לנתח כמויות עצומות של קלט, כולל קולות ותמונות. רשתות אלה יכולות לזהות תכונות משותפות, מה שמאפשר להן לסווג מילים או אובייקטים. כרגע, מודלים אלה עומדים בחזית התחום כמודלים העיקריים לחיקוי מערכות חישה ביולוגיות.
NTT Research Senior Scientist ו- Associate ב- Harvard University Center for Brain Science Hidenori Tanaka ו-3 מדענים אחרים הציעו להתגבר על המגבלות של עדינות נאיבית, שיטת ה- status quo להפחתת שגיאות DNNs או “אובדן”, עם אלגוריתם חדש שמפחית את תלות המודל בתכונות הרגישות להטיה.
הם חקרו את נוף האובדן של רשתות נוירונים דרך העדשה של קישוריות מצב, התצפית שמינימייזרים של רשתות נוירונים שהושגו דרך אימון על מערכת נתונים מחוברים דרך נתיבים פשוטים של אובדן נמוך. במיוחד, הם שאלו את השאלה הבאה: האם מינימייזרים שתלויים במנגנונים שונים לקבלת החלטות מחוברים דרך נתיבים פשוטים של אובדן נמוך?
הם גילו ש- Naïve fine-tuning אינה מסוגלת לשנות באופן מהותי את מנגנון קבלת ההחלטות של המודל, שכן היא דורשת מעבר לעמק אחר בנוף האובדן. במקום זאת, יש להניע את המודל מעל המחסומים המפרידים בין “בריכות” או “עמקים” של אובדן נמוך. המחברים קוראים לאלגוריתם התיקוני Connectivity-Based Fine-Tuning (CBFT).
לפני הפיתוח הזה, DNNs, שמסווגות תמונות כגון דג (איור ששימש במחקר הזה) השתמשו הן בצורה העצם והן ברקע כפרמטרים קלט לצורך חיזוי. נתיבים שלהן להפחתת אובדן היו, לפיכך, פועלים במצבים מכניים שונים: אחד תלוי בתכונה הלגיטימית של צורה, והשני תלוי בתכונה המזויפת של צבע רקע. כך, מצבים אלה חסרים קישוריות ליניארית, או נתיב פשוט של אובדן נמוך.
צוות המחקר מבין את המנגנון של קישוריות מצב על ידי בחינה של שני סטים של פרמטרים שמפחיתים אובדן באמצעות רקע וצורת עצם כתכונות קלט לצורך חיזוי. ואז שאלו את עצמם, האם כאלה מינימייזרים מכניים שונים מחוברים דרך נתיבים של אובדן נמוך בנוף? האם השונות של מנגנונים אלה משפיעה על פשטות נתיבי הקישור שלהם? האם ניתן לנצל את הקישוריות הזו כדי להחליף בין מינימייזרים שמשתמשים במנגנונים הרצויים?
במילים אחרות, DNNs, בהתאם למה שהן למדו במהלך האימון על מערכת נתונים מסוימת, יכולות להתנהג בצורה שונה מאוד כאשר בודקים אותן על מערכת נתונים אחרת. הצעת הצוות התלכדה למושג של דמיון משותף. היא בנויה על הרעיון הקודם של קישוריות מצב, אבל עם נקודת מבט – היא בוחנת כיצד מנגנונים דומים עובדים. מחקרם הוביל לגילויים הבאים:
- מינימייזרים שיש להם מנגנונים שונים יכולים להיות מחוברים בדרך מורכבת, לא-ליניארית
- כאשר שני מינימייזרים מחוברים ליניארית, זה קשור קשר הדוק לדמיון בין מודלים שלהם במונחים של מנגנונים
- עדינות פשוטה אולי לא תהיה מספיק כדי להיפטר מתכונות לא רצויות שנלמדו במהלך האימון הקודם
- אם תמצאו אזורים שמחוברים ליניארית בנוף, ניתן לבצע שינויים יעילים בפעולות הפנימיות של המודל.
בעוד שמחקר זה הוא צעד גדול בניצול הפוטנציאל המלא של AI, דאגות אתיות סביב AI עלולות עדיין להיות קרב עולה. טכנולוגים וחוקרים עובדים להילחם בחולשות אתיות אחרות ב- AI ובמודלים של שפה גדולים, כגון פרטיות, אוטונומיה, אחריות.
AI יכולה לשמש לאיסוף ועיבוד כמויות גדולות של נתונים אישיים. שימוש לא מורשה או לא אתי של נתונים אלה יכול לפגוע בפרטיות של אנשים, מה שמוביל לדאגות סביב מעקב, הדלפות נתונים וגניבת זהות. AI יכולה גם להוות איום כאשר מדובר באחריות יישומים אוטונומיים כגון מכוניות עצמאיות. יצירת מסגרות משפטיות וסטנדרטים אתיים לאחריות ואחריות תהיה חיונית בשנים הקרובות.
במסקנה, הצמיחה המהירה של טכנולוגיית AI היצרנית מהווה הבטחה לתחומים שונים, מפיננסים ובריאות ועד תחבורה. למרות התפתחויות אלה, דאגות אתיות סביב AI עדיין משמעותיות. כאשר אנו ננווטים בתקופה המשתנה הזו של AI, היא חיונית עבור טכנולוגים, חוקרים ומדיניות לעבוד יחד כדי ליצור מסגרות משפטיות וסטנדרטים אתיים שיבטיחו את השימוש האחראי והמועיל של טכנולוגיית AI בשנים הבאות. מדענים ב- NTT Research ו- University of Michigan הם צעד אחד לפני המשחק עם הצעתם לאלגוריתם שיכול להיפטר מהטיה ב- AI.










