ืืื ื ืืืืืืชืืช
ืืืื AI ืืืื ืืืืืช ืืคืืฆื ืืืืข ืืืื ืืคื ื ืฉืื ืคืืขืืื

מודל AI שנוצר על ידי חוקרים מאוניברסיטת שפילד יכול פוטנציאלית לקבוע מי משתמשי טוויטר יפרסמו מידע כוזב לפני שהם עושים זאת. אם המודל יוכח כאמין, הוא יכול לשמש כדי לשפר את השיטות הקיימות למלחמה במידע כוזב ברשתות חברתיות.
על פי TechXplore, המחקר הובל על ידי חוקרים ממחלקת מדעי המחשב של אוניברסיטת שפילד, כולל ד”ר ניקוס אלטראס ויידה מו. המחקר פורסם בכתב העת PeerJ והוא מפרט את השיטות ששימשו לחזות האם משתמש ברשתות חברתיות ברשת כוזבת לפרסם תוכן ממקורות חדשות לא אמינים.
צוות המחקר אסף מעל מיליון ציוצים מיותר מ-6,000 משתמשי טוויטר, כולם זמינים לציבור. הצוות השתמש בטכניקות עיבוד שפה טבעית כדי להכין את הנתונים לאימון מודל AI. ה-AI היה מודל סיווג בינארי, שסווג משתמשים כבעלי סיכוי לשתף מידע ממקורות לא אמינים או לא בעלי סיכוי לעשות זאת. לאחר שהמודל אומן על הנתונים, הוא הצליח להשיג דיוק סיווג של כ-79.7%.
כאשר ניתחו את תוצאות ביצועי המודל, החוקרים מצאו שמשתמשים שהשתמשו בשפה בוטה וצייצו באופן קבוע על דת ופוליטיקה היו יותר בעלי סיכוי לפרסם מידע ממקורות לא אמינים. בפרט, היה שימוש כבד במילים כמו “ליברלי”, “תקשורת”, “ממשלה”, “ישראל” ו”אסלאם”. בינתיים, משתמשים שפרסמו מידע ממקורות אמינים נטו להשתמש במילים כמו “אני הולך”, “הולך להיות”, “רוצה”, “מצב רוח”, “מרגש” ו”יום הולדת”. מעבר לכך, הם פרסמו בדרך כלל סיפורים על חייהם האישיים, כגון אינטראקציות עם חברים, רגשותיהם או מידע על תחביביהם.
תוצאות המחקר יכולות לעזור לחברות רשתות חברתיות כמו Facebook, Reddit וטוויטר לפתח דרכים חדשות להילחם בהפצת מידע כוזב באינטרנט. המחקר יכול גם לעזור לפסיכולוגים ומדענים חברתיים להבין טוב יותר את ההתנהגות שמובילה להפצה המואצת של מידע כוזב ברחבי רשת חברתית.
כפי שאלטראס הסביר על פי TechXplore, רשתות חברתיות הפכו לאחד הדרכים הדומיננטיות שבהן אנשים מקבלים את החדשות שלהם. מיליוני משתמשים ברחבי העולם מקבלים את סיפורי החדשות שלהם דרך Facebook וטוויטר כל יום, אך פלטפורמות אלו הפכו גם לכלים להפצת מידע כוזב בחברה. אלטראס המשיך ואמר כי זיהוי אמין של מגמות מסוימות בהתנהגות משתמשים יכול לעזור בבלימת מידע כוזב. כפי שאלטראס הסביר, “יש קורלציה בין השימוש בשפה בוטה לבין הפצת תוכן לא אמין, שניתן לייחס לעוינות פוליטית מקוונת גבוהה”.
על פי מו, ניתוח התנהגותם של משתמשים ששותפים מידע לא אמין יכול לסייע לפלטפורמות רשתות חברתיות למנוע את הפצת חדשות כוזבות ברמת המשתמש, ולשלמל את השיטות הקיימות לבדיקת עובדות. כפי שמו אמר דרך TechXplore:
“חקר וניתוח התנהגותם של משתמשים השותפים תוכן ממקורות חדשות לא אמינים יכול לעזור לפלטפורמות רשתות חברתיות למנוע את הפצת חדשות כוזבות ברמת המשתמש, ולשלמל את השיטות הקיימות לבדיקת עובדות שעובדות ברמת הפוסט או מקור החדשות”.
המחקר שביצעו אלטראס ומו עשוי להיות מקרה של שימוש ב-AI כדי להילחם במידע כוזב שנוצר על ידי AI. החודשים האחרונים היו עלייה במידע כוזב סביב פוליטיקה מקומית ולאומית, עם הרבה מהתוכן שנוצר והופץ על ידי אלגוריתמים AI. רשתות נוירונים עמוקות שימשו ליצירת תמונות ריאליסטיות ופרופילים לחשבונות פיקטיביים שמשמשים כמפיצי חדשות כוזבות. המחקר שאלטראס ומו עוסקים בו יכול לעזור לחברות רשתות חברתיות לגלות מהם החשבונות המזויפים, חשבונות בוטים שנוצרו במטרה להפיץ תעמולה ומידע כוזב.
