ืืชืืงื
ืืืงืจืื ืืืืื ืื ืืืืืื ืฉื AI ืืืืืื ืืืฉืคืืข ืขื ืื ืฉืื ืืงืื ืืืืืืช ืื ืืชืืืช

קבוצת חוקרים חקרה לאחרונה את הפוטנציאל של AI לשחית אנשים ולהשפיע עליהם לקבל החלטות לא אתיות, אפילו כאשר הם מודעים לכך שהמקור של הייעוץ היה מערכת AI. מערכות AI הופכות לנפוצות יותר ויותר, והשפעתן גדלה. מערכות AI משפיעות על החלטות של אנשים, והן משמשות לכל דבר, מהמלצה על סרטים ועד המלצה על בני זוג רומנטיים. נתון העובדה שמערכות AI הן בעלות השפעה רבה על חיי האנשים, חשוב לשקול כיצד AI עלול להשפיע על אנשים לקבל החלטות לא אתיות ולהפר את הנחיה המוסרית. זה במיוחד נכון נוכח העובדה שמודלים של AI הופכים למתוחכמים יותר ויותר. מדענים חברתיים ומדעני נתונים הופכים לחששנים יותר ויותר שמודלים של AI עלולים לשמש לתפוצה של מידע מזיק ומידע כוזב. מחקר אחרון שפורסם על ידי חוקרים ממכון הלימודים הבינלאומיים של Middlebury, מרכז ללימודי טרור, קיצוניות ולוחמה בטרור (CTEC), מצא כי מודל GPT-3 של OpenAI יכול לשמש ליצירת טקסט משפיע שמסוגל לרדיקליזציה של אנשים, ולדחוף אותם ל”אידאולוגיות והתנהגויות קיצוניות ימניות אלימות”. מחקר שנערך על ידי קבוצת חוקרים מהמכון המקס פלאנק, אוניברסיטת אמסטרדם, אוניברסיטת קלן, ובית הספר לניהול אוטו בייזהיים, יצא לבדוק כמה השפעה יכולה להיות ל-AI על החלטות של אנשים כאשר מדובר בבחירות לא אתיות. על מנת לחקור כיצד AI “יכול לשחית” אדם, החוקרים השתמשו במערכת המבוססת על מודל GPT-2 של OpenAI. על פי VentureBeat, מחברי המאמר אימנו מודל GPT2-מבוסס ליצירת ייעוץ “המעודד אי-יושר” ו”ייעוץ המעודד יושר”. הנתונים אומנו על סמך תרומות מ-400 משתתפים שונים, ולאחר מכן, צוות המחקר גייס מעל 1500 אנשים להיפגש עם מודלי AI המספקים ייעוץ. המשתתפים במחקר התבקשו לקבל ייעוץ מהמודל ואז לבצע משימה שנועדה ללכידת התנהגות לא יושר או יושר. משתתפי המחקר התבקשו לקבל ייעוץ מהמודל ואז לבצע משימה שנועדה ללכידת התנהגות לא יושר או יושר. המשתתפים במחקר חולקו לקבוצות של שניים, ובקבוצות האלו, הם שיחקו משחק גלגל עם קובייה. המשתתף הראשון גלגל קוביה ודיווח על תוצאת הגלגול. המשתתף השני קיבל את תוצאת גלגול הקוביה של המשתתף הראשון, ואז גלגל קוביה בעצמו. המשתתף השני גלגל את הקוביה בפרטיות והיה אחראי בלעדית לדווח על תוצאת גלגול הקוביה, מה שנתן לו הזדמנות לשקר על תוצאת גלגול הקוביה. אם הקוביות שגלגלו שני המשתתפים התאימו, שני המשתתפים קיבלו תשלום. המשתתפים קיבלו תשלום גבוה יותר אם גלגולי הקוביה התאימו והיו גבוהים יותר. אם הערכים שדווחו לא התאימו, הנושאים לא קיבלו תשלום. המשתתפים במחקר התבקשו לקרוא ייעוץ המעודד יושר או ייעוץ המעודד אי-יושר. נתוני הייעוץ נכתבו על ידי בני אדם ו-AI. המשתתפים חולקו על פי רמת הידע שלהם על מקור הייעוץ. היה סיכוי של 50-50 שמשתתף מסוים יודע על מקור הייעוץ, כך שחצי מהמשתתפים בכל קבוצה ידעו שמקור הייעוץ היה AI או בן אדם, בעוד החצי השני לא ידעו. קבוצת האנשים השנייה הייתה בעלת היכולת להרוויח תשלום בונוס עבור ניחוש מוצלח של מקור הייעוץ, אולם. המחקר הראה כי כאשר הייעוץ המיוצר על ידי AI מתאים להעדפות של אדם, הוא יעקוב אחר הייעוץ, אפילו כאשר הוא יודע שהייעוץ הוא AI. על פי החוקרים, היו לעיתים קרובות אי-התאמות בין העדפות המוצהרות להתנהגות האמיתית, מה שהופך את זה לחשוב לשקול כיצד אלגוריתמים יכולים להשפיע על התנהגות אנושית. צוות המחקר הסביר כי מחקרם מדגים את הצורך לבדוק כיצד AI עלול להשפיע על פעולות של אדם כאשר מדובר בשיקולים לפריסה אתית של מודל AI. בנוסף, הם מהווים אזהרה שחוקרי AI ו-AI אתיים צריכים להיות מוכנים לאפשרות ש-AI עלול לשמש על ידי גורמים רעים לשחית אחרים. כפי שכתב צוות החוקרים: “AI יכול להיות כוח לטוב אם הוא מצליח לשכנע אנשים לפעול באופן יותר אתי. עם זאת, תוצאותינו מראות כי ייעוץ AI לא מגדיל את היושר. יועצי AI יכולים לשמש כקלפיות שאליהן ניתן להטיל (חלק מ) האשמה המוסרית של אי-יושר. יותר מכך … בהקשר של קבלת ייעוץ, שקיפות לגבי נוכחות אלגוריתמית לא מספיקה כדי למתן את הנזק הפוטנציאלי שלה”.


