Connect with us

ื”ื“ื™ืœืžื” ืฉืœ ื”ืืžื•ืŸ ื‘ืขื™ื“ืŸ ื”-AI ื”ืžืชืงื“ื

ืืชื™ืงื”

ื”ื“ื™ืœืžื” ืฉืœ ื”ืืžื•ืŸ ื‘ืขื™ื“ืŸ ื”-AI ื”ืžืชืงื“ื

mm

התפתחותה של AI יותר ויותר ריאליסטית מציגה דילמה מורכבת: ככל שישויות דיגיטליות אלו הופכות למתוחכמות יותר, היכולת שלנו לבטוח באלו עם הם אנו מתקשרים עלולה להיות מושפעת באופן משמעותי. נושא זה הוא מרכזי למחקרים אחרונים באוניברסיטת גוטנבורג, שם מדענים חקרו את ההשפעות של מערכות AI מתקדמות על יחסים בין-אישיים ואמון.

בעולם שבו נוכלים יכולים להיות מוטעים לשוחח עם מערכות AI, בחושבם שהם מדברים עם בני אדם אמיתיים, ברור שהטכנולוגיה התקדמה לרמה מרשימה אך פוטנציאלית מטרידה של ריאליזם. פרופסור אוסקר לינדוואל, מומחה לתקשורת באוניברסיטת גוטנבורג, מציין את המציאות החדה של זה, ומתאר כיצד זמן רב יכול לעבור לפני שיחים מבינים שהם באמת מתקשרים עם מערכת דיגיטלית, ולא עם אדם.

השפעת בעיות אמון על יחסים בין-אישיים

תופעה זו נותחה במאמר משותף של לינדוואל ופרופסור למידענות יונאס איוורסון, בשם “Suspicious Minds: The Problem of Trust and Conversational Agents.”

מחקרם מטיל אור על כיצד יחידים מפרשים ומגיבים למצבים שבהם הם חושדים ש-AI עשוי להיות הצד השני בשיחה. בנוסף, הוא חוקר את ההשפעות ההרסניות שחשד יכול להיות לו על יחסים, ומעודד אותנו לשקול כיצד AI עלול לזרוע זרעים של ספקנות באינטראקציות הבין-אישיות שלנו.

לדוגמה, ניתוח מערכת יחסים רומנטית שבה אחד הצדדים הופך לחשדני מדי, מה שמוביל לקנאה, ולחיפוש אחר סימנים של רמאות. התפוררות האמון יכולה להפוך במהירות למסוכנת, ולגרום לפירוק היחסים. מחקרם של לינדוואל ואיוורסון מצא כי במהלך אינטראקציות בין-אדם, התנהגויות מסוימות הוטעו כאינדיקציות לכך שאחד המשתתפים הוא רובוט. זה מדגים את עומק הבעיה של אמון, כאשר היא חודרת יותר ויותר לאינטראקציות החברתיות שלנו.

הבעיה עם AI דמוית-אדם

המחברים שואלים את הפילוסופיה הנוכחית של עיצוב AI, שבה הנעת התכונות הדמויות-אדם יכולה להוביל לסיבוכים בלתי מכוונים. אכן, בעוד ש-AI המחקה תקשורת אנושית עשויה להיראות רצויה, העמימות שהיא מציגה יכולה ליצור חרדה בנוגע למי אנו באמת מתקשרים. איוורסון, למשל, מעלה חששות בנוגע ל-AI המייצר קולות דמויי-אדם, ומציין כיצד הם יכולים ליצור תחושה של אינטימיות וליצור רושם כוזב על בסיס רמזים שמיעתיים בלבד.

מחקרם על שיחות הונאה מדגים נקודה זו, ומצביע על כך שהאמינות של קול אנושי והנחות המבוססות על גיל מוערך יכולות לארוך את הזמן של הונאה. ככל ש-AI מאמץ יותר תכונות אנושיות, נטיותינו להסיק מסקנות עלולות לערפל את שיפוטנו, ולגרום לנו לייחס מגדר, גיל, ורקע סוציו-אקונומי למערכות אלו, וכך להסתיר את העובדה שאנו מתקשרים עם מכונה, ולא עם אדם.

לינדוואל ואיוורסון הציעו כי הדרך קדימה עשויה לכלול פיתוח AI עם קולות סינתטיים אך אלוקנטיים. גישה כזו תבטיח תמימות, תוך הפחתת הבלבול הפוטנציאלי, מבלי לפגוע באיכות התקשורת.

עתיד התקשורת האנושית-AI

אינטראקציות עם אחרים הן רב-ממדיות, וכוללות לא רק פוטנציאל להונאה, אלא גם אלמנטים של בניית יחסים ויצירת משמעות משותפת. הצגת אי-ודאות בנוגע לכך אם מישהו משוחח עם אדם או מכונה, יכולה להשפיע באופן משמעותי על היבטים אלו. בעוד שזה עשוי לא להיות בעיה משמעותית בסיטואציות מסוימות, כגון טיפול התנהגותי-קוגניטיבי, סוגים אחרים של פרקטיקות טיפוליות הדורשות קשר אנושי רב יותר, עלולות להיות מושפעות לרעה.

מחקרם של לינדוואל ואיוורסון, שניתח נתונים מ-YouTube הכוללים סוגים שונים של שיחות ותגובות קהל, סייע להאיר את הדינמיקות המורכבות האלו. תפקיד האמון באינטראקציות שלנו, הנוף המשתנה של תקשורת אנושית-AI, והמשמעויות של AI דמוית-אדם הולכת וגדלה, הם כולם היבטים מורכבים של תחום מתפתח זה, שראויים לחקירה נוספת.

מחקר זה מדגיש את הצורך בשיקול זהיר כאשר אנו ממשיכים לפתח ולש

ืืœื›ืก ืžืงืคืจืœื ื“ ื”ื•ื ืขื™ืชื•ื ืื™ ื•ื›ื•ืชื‘ AI ื”ื—ื•ืงืจ ืืช ื”ืคื™ืชื•ื—ื™ื ื”ืื—ืจื•ื ื™ื ื‘ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช. ื”ื•ื ืฉื™ืชืฃ ืคืขื•ืœื” ืขื ืžืกืคืจ ืจื‘ ืฉืœ ื—ื‘ืจื•ืช ื”ื–ื ืงื™ื ืฉืœ AI ื•ืคืจืกื•ืžื™ื ื‘ืจื—ื‘ื™ ื”ืขื•ืœื.