ืืื ื ืืืืืืชืืช
ืืืื ืกืืืืกืื ืขืืืจ ืืืืืช ืืืืข ืืืื ืืจืฉืชืืช ืืืจืชืืืช

פרופסור למתמטיקה מאוניברסיטת אמריקן, יחד עם צוות השותפים שלו, פיתח מודל סטטיסטי שיכול לגלות מידע כוזב בפוסטים ברשתות חברתיות.
למידת מכונה משמשת בהולכה ובעלייה לעצור את התפשטות המידע הכוזב, אך עדיין קיים מכשול גדול הקשור לבעיה של קופסאות שחורות. זה מתייחס למצב בו חוקרים אינם מבינים כיצד מכונה מגיעה לאותה החלטה כמו מאמנים אנושיים.
גילוי מידע כוזב עם מודלים סטטיסטיים
זואיס בוקובאלאס, פרופסור עוזר במחלקת המתמטיקה וסטטיסטיקה של AU, השתמש במאגר נתונים של טוויטר עם ציוצים כוזבים על COVID-19 כדי להדגים כיצד מודלים סטטיסטיים יכולים לגלות מידע כוזב ברשתות חברתיות במהלך אירועים גדולים כמו מגפה או אסון.
בוקובאלאס ועמיתיו, שכוללים את תלמידת AU קייטלין מורוני ופרופסור למדעי המחשב נטלי ג’פקוביץ’, הדגימו כיצד החלטות המודל מסתמכות על בני אדם במחקר חדש שפורסם.
“היינו רוצים לדעת מה מכונה חושבת כאשר היא עושה החלטות, וכיצד ולמה היא מסכימה עם בני האדם שאימנו אותה,” אמר בוקובאלאס. “אנו לא רוצים לחסום חשבון רשת חברתית של מישהו בגלל שהמודל עושה החלטה מוטה.”
השיטה שבה השתמש הצוות היא סוג של למידת מכונה המסתמכת על סטטיסטיקה. מודלים סטטיסטיים הם יעילים ומספקים דרך אחרת להילחם במידע כוזב.
המודל השיג ביצועים גבוהים וסווג קבוצת בדיקה של 112 ציוצים אמיתיים וכוזבים עם דיוק של כמעט 90%.
“מה שמשמעותי בממצא זה הוא שהמודל שלנו השיג דיוק תוך כדי הצגת שקיפות לגבי איך הוא גילה את הציוצים שהיו מידע כוזב,” המשיך בוקובאלאס. “שיטות למידה עמוקה לא יכולות להשיג דיוק כזה עם שקיפות.”
אימון והכנה של המודל
החוקרים התכוננו לאמן את המודל לפני שניסו אותו על מאגר נתונים, מכיוון שהמידע שסופק על ידי בני אדם יכול להכניס הטיות וקופסאות שחורות.
הציוצים סומנו על ידי החוקרים כמידע כוזב או אמיתי על בסיס סט של כללים מוגדרים מראש על שפה המשמשת במידע כוזב. הצוות גם לקח בחשבון רגישויות בשפה האנושית ומאפיינים לשוניים הקשורים למידע כוזב.
לפני אימון המודל, פרופסור סוציו-לינגוויסטית כריסטין מלינסון מאוניברסיטת מרילנד בולטימור קאונטי זיהתה את הציוצים לסגנונות כתיבה המקושרים למידע כוזב, הטיה ומקורות פחות אמינים בתקשורת.
“כאשר אנו מוסיפים את הקלטים האלה למודל, הוא מנסה להבין את הגורמים הבסיסיים שמובילים להפרדה בין מידע טוב לרע,” אמרה ג’פקוביץ’. “הוא לומד את ההקשר ואיך המילים מתפקדות.”
החוקרים יחפשו עכשיו לשפר את ממשק המשתמש של המודל, כמו גם את יכולתו לגלות מידע כוזב בפוסטים ברשתות חברתיות שכוללים תמונות או מולטימדיה אחרת. המודל הסטטיסטי יידרש ללמוד כיצד מגוון רחב של אלמנטים שונים מתפקדים יחד כדי ליצור מידע כוזב.
שניהם, בוקובאלאס וג’פקוביץ’, אומרים כי אינטליגנציה אנושית וספרותיות חדשות הן מפתח לעצירת התפשטות המידע הכוזב.
“דרך עבודתנו, אנו מעצבים כלים המבוססים על למידת מכונה כדי להתריע ולחנך את הציבור כדי למחוק מידע כוזב, אבל אנו מאמינים בצורה חזקה כי בני אדם צריכים לשחק תפקיד פעיל בלא להפיץ מידע כוזב מלכתחילה,” אמר בוקובאלאס.










