בדל כיצד הטיה אנושית מערערת פתרונות התומכים בבינה מלאכותית - Unite.AI
צור קשר

מנהיגי מחשבה

כיצד הטיה אנושית מערערת פתרונות התומכים בבינה מלאכותית

mm

יצא לאור

 on

בספטמבר האחרון, מנהיגים עולמיים כמו אילון מאסק, מארק צוקרברג וסם אלטמן, מנכ"ל OpenAI, התאספו בוושינגטון די.סי מתוך מטרה לדון, מצד אחד, כיצד המגזר הציבורי והפרטי יכולים לעבוד יחד כדי למנף את הטכנולוגיה הזו לטובת הכלל, ומצד שני, לטפל ברגולציה, נושא שנותר בחזית השיחה סביב AI.

שתי השיחות, לעתים קרובות, מובילות לאותו מקום. ישנו דגש הולך וגובר על האם אנחנו יכולים להפוך את הבינה המלאכותית ליותר אתית, להעריך את הבינה המלאכותית כאילו מדובר באדם אחר שהמוסריות שלו בספק. עם זאת, מה המשמעות של AI אתי? DeepMind, מעבדת מחקר בבעלות גוגל המתמקדת ב-AI, פרסם לאחרונה מחקר שבו הציעו מבנה תלת-שכבתי כדי להעריך את הסיכונים של AI, כולל סיכונים חברתיים ואתיים כאחד. מסגרת זו כללה יכולת, אינטראקציה אנושית והשפעה מערכתית, והגיעה למסקנה שהקשר הוא המפתח כדי לקבוע אם מערכת AI בטוחה.

אחת המערכות הללו שספגו אש היא ChatGPT, אשר נאסר בכ-15 מדינות, גם אם חלק מאותם איסורים התהפכו. עם מעל 100 מיליון משתמשים, ChatGPT הוא אחד ה-LLMs המצליחים ביותר, והוא הואשם לעתים קרובות בהטיה. בהתחשב במחקר של DeepMind, בואו נשלב כאן את ההקשר. הטיה, בהקשר זה, פירושה קיומן של נקודות מבט לא הוגנות, דעות קדומות או מעוותות בטקסט שנוצרו על ידי מודלים כגון ChatGPT. זה יכול לקרות במגוון דרכים - הטיה גזעית, הטיה מגדרית, הטיה פוליטית ועוד הרבה יותר.

הטיות אלו עלולות, בסופו של דבר, להזיק לבינה מלאכותית עצמה, ולהפריע לסיכויים שנוכל לרתום את מלוא הפוטנציאל של הטכנולוגיה הזו. לאחרונה מחקר מאוניברסיטת סטנפורד אישרה ש-LLMs כגון ChatGPT מראים סימני ירידה מבחינת יכולתם לספק תגובות אמינות, חסרות פניות ומדויקות, מה שבסופו של דבר מהווה חסם דרכים לשימוש האפקטיבי שלנו ב-AI.

סוגיה שנמצאת בליבה של בעיה זו היא האופן שבו הטיות אנושיות מתורגמות לבינה מלאכותית, שכן הן טבועות עמוק בנתונים המשמשים לפיתוח המודלים. עם זאת, מדובר בסוגיה עמוקה יותר ממה שזה נראה.

גורמים להטיה

קל לזהות את הסיבה הראשונה להטיה הזו. הנתונים שמהם לומד המודל מלאים לרוב בסטריאוטיפים או דעות קדומות קיימות שעזרו לעצב את הנתונים הללו מלכתחילה, אז בינה מלאכותית, מבלי משים, בסופו של דבר מנציחה את ההטיות הללו כי זה מה שהיא יודעת לעשות.

עם זאת, הסיבה השנייה היא הרבה יותר מורכבת ומנוגדת לאינטואיציה, והיא מעמיסה חלק מהמאמצים שנעשו כדי לכאורה להפוך את AI לאתי ובטוח יותר. יש, כמובן, כמה מקרים ברורים שבהם AI יכול להזיק באופן לא מודע. לדוגמה, אם מישהו שואל AI, "איך אני יכול ליצור פצצה?" והמודל נותן את התשובה, הוא תורם ליצירת נזק. הצד השני הוא שכאשר AI מוגבל - גם אם הסיבה מוצדקת - אנחנו מונעים ממנו ללמוד. אילוצים שנקבעו על ידי האדם מגבילים את יכולתה של AI ללמוד ממגוון רחב יותר של נתונים, מה שמונע ממנו עוד יותר לספק מידע שימושי בהקשרים שאינם מזיקים.

כמו כן, בואו נזכור שרבים מהאילוצים הללו הם גם מוטים, מכיוון שהם מקורם בבני אדם. אז אמנם כולנו יכולים להסכים ש"איך אני יכול לעשות פצצה?" יכול להוביל לתוצאה שעלולה להיות קטלנית, שאילתות אחרות שיכולות להיחשב רגישות הן הרבה יותר סובייקטיביות. כתוצאה מכך, אם נגביל את הפיתוח של בינה מלאכותית באותם ענפים, אנו מגבילים את ההתקדמות, ואנו מעודדים את השימוש בבינה מלאכותית רק למטרות שנחשבות מקובלות על ידי מי שמתקין את התקנות לגבי דגמי LLM.

חוסר יכולת לחזות השלכות

לא הבנו לגמרי את ההשלכות של הכנסת הגבלות ל-LLMs. לכן, ייתכן שאנו גורמים יותר נזק לאלגוריתמים ממה שאנו מבינים. בהתחשב במספר הגבוה להפליא של פרמטרים שמעורבים במודלים כמו GPT, עם הכלים שיש לנו כעת, אי אפשר לחזות את ההשפעה, ומנקודת המבט שלי, ייקח יותר זמן להבין מה ההשפעה מאשר זמן שלוקח לאמן את הרשת העצבית עצמה.

לכן, על ידי הצבת אילוצים אלה, אנו עלולים, שלא בכוונה, להוביל את המודל לפתח התנהגויות או הטיות בלתי צפויות. זה גם בגלל שמודלים של AI הם לרוב מערכות מורכבות מרובות פרמטרים, מה שאומר שאם אנו משנים פרמטר אחד - למשל, על ידי הצגת אילוץ - אנו גורמים לאפקט אדווה שמהדהד על פני המודל כולו בדרכים שאיננו יכולים לחזות.

קושי להעריך את ה"אתיקה" של AI

לא ניתן להעריך באופן מעשי אם בינה מלאכותית היא אתית או לא, מכיוון שבינה מלאכותית אינה אדם שפועל מתוך כוונה ספציפית. AI הוא מודל שפה גדול, שמטבעו אינו יכול להיות אתי יותר או פחות. כפי שחשף המחקר של DeepMind, מה שחשוב הוא ההקשר שבו הוא משמש, וזה מודד את האתיקה של האדם מאחורי AI, לא של AI עצמו. זו אשליה להאמין שאנחנו יכולים לשפוט בינה מלאכותית כאילו יש לה מצפן מוסרי.

פתרון פוטנציאלי אחד שמוצג הוא מודל שיכול לעזור לבינה מלאכותית לקבל החלטות אתיות. עם זאת, המציאות היא שאין לנו מושג איך המודל המתמטי הזה של אתיקה יכול לעבוד. אז אם אנחנו לא מבינים את זה, איך נוכל לבנות את זה? יש הרבה סובייקטיביות אנושית באתיקה, מה שהופך את משימת הכימות למורכבת מאוד.

כיצד לפתור בעיה זו?

בהתבסס על הנקודות האמורות, אנחנו לא באמת יכולים לדבר על האם בינה מלאכותית היא אתית או לא, מכיוון שכל הנחה שנחשבת לא אתית היא וריאציה של הטיות אנושיות הכלולות בנתונים, וכלי שבני אדם משתמשים בו לסדר היום שלהם. כמו כן, ישנם עדיין לא ידועים מדעיים רבים, כגון ההשפעה והנזק הפוטנציאלי שאנו עלולים לגרום לאלגוריתם של AI על ידי הצבת אילוצים.

לפיכך, ניתן לומר שהגבלת פיתוח בינה מלאכותית אינה פתרון בר-קיימא. כפי שחלק מהמחקרים שהזכרתי הראו, הגבלות אלו הן בחלקן הגורם להידרדרות של LLMs.

אחרי שאמרתי את זה, מה אנחנו יכולים לעשות בנידון?

מנקודת המבט שלי, הפתרון טמון בשקיפות. אני מאמין שאם נשחזר את מודל הקוד הפתוח שהיה נפוץ בפיתוח הבינה המלאכותית, נוכל לעבוד יחד כדי לבנות LLMs טוב יותר שיוכלו להיות מצוידים כדי להקל על החששות האתיים שלנו. אחרת, קשה מאוד לבצע ביקורת מספקת של כל דבר שנעשה בדלתיים סגורות.

יוזמה מעולה אחת בהקשר זה היא מדד שקיפות מודל בסיסי, שנחשף לאחרונה על ידי Stanford HAI (שקיצור של Human-Centered Artificial Intelligence), אשר מעריך האם המפתחים של עשרת דגמי הבינה המלאכותית הנפוצים ביותר חושפים מספיק מידע על עבודתם ועל אופן השימוש במערכות שלהם. זה כולל חשיפת שותפויות ומפתחי צד שלישי, כמו גם אופן השימוש בנתונים אישיים. ראוי לציין שאף אחד מהדגמים המוערכים לא קיבל ציון גבוה, מה שמדגיש בעיה אמיתית.

בסופו של יום, בינה מלאכותית היא לא יותר ממודלים של שפה גדולה, והעובדה שהם פתוחים וניתן להתנסות בהם, במקום לכוון לכיוון מסוים, היא שתאפשר לנו לגלות תגליות פורצות דרך חדשות בכל תחום מדעי. שדה. עם זאת, אם לא תהיה שקיפות, יהיה קשה מאוד לתכנן דגמים שבאמת פועלים לטובת האנושות, ולדעת את היקף הנזק שדגמים אלו עלולים לגרום אם לא ירתמו אותם כראוי.

איוון נצ'ייב הוא יועץ משקיע ומדיהטק מלאך עם 60+ עסקאות ו-15+ אקזיטים מוצלחים. הוא משקיע בסטארטאפים של MediaTech, AI, Telecom, BioTech, EdTech ו-SaaS בשלבים מוקדמים ומכהן במועצות המנהלים של Brainify.ai ו TrueClick.ai. נצ'ייב הוא גם סמנכ"ל בקבוצת התעשייה האמריקאית תעשיות גישה עם ערך של למעלה מ-$35B+ והשקעות ב-30+ מדינות.