ืื ืืืื ืืขื
ืืืฆื AI ืฉื ืคืืืกืืืง ืืคืืฅ ืืืืข ืืืื ืืืืืื ืขื ืืืืืงืจืืื

Dan Tunkelang, שפיקח על מחקר AI ב-LinkedIn, הצהיר: “רגע שהמלצות הן בעלות כוח להשפיע על החלטות, הן הופכות למטרה לספאמרים, רמאים ואנשים אחרים עם מניעים פחות אצילים.”
זוהי הדילמה שחברות מדיה חברתיות כגון פייסבוק חוות. פייסבוק משתמש ב-משוב מרומז כדי לעקוב אחרי קליקים, צפיות והתנהגויות משתמשים מודדות אחרות. זה משמש לתכנון מה שמזוהה כ”מנוע המלצות”, מערכת AI שיש לה כוח עליון בהחלטה מי רואה איזה תוכן ומתי.
פייסבוק אופטימיזה את מנוע ההמלצות שלה כדי למקסם את מעורבות המשתמש, שנמדדת על ידי כמות הזמן שמבלים דבוקים לפלטפורמת פייסבוק. מקסימיזציה של זמן מקבלת עדיפות על כל משתנה אחר, כולל איכות או דיוק של מה שמומלץ.
המערכת מעוצבת כדי לתגמל כותרות סנסציוניות שמעורבות משתמשים על ידי ניצול הטיה קוגניטיבית, אפילו אם כותרות אלו נכתבו על ידי טרולים רוסים עם כוונה לחלק את החברה או להשפיע על בחירות פוליטיות.
כיצד פייסבוק משתמשת ב-AI
ישנה מחסור במודעות לגבי כיצד פייסבוק משתמשת ב-AI כדי להחליט מה משתמשיה רואים ומתעוררים. צריך להבין תחילה מהו הטיה לאישור:
הטיה לאישור היא הנטייה לחפש, לפרש, לחייב ולזכור מידע בדרך שמאשרת או תומכת באמונות או ערכים קודמים.
פייסבוק מבינה שמשתמשים נוטים יותר ללחוץ על חדשות שמזינות את הנטייה האנושית לחפש הטיה לאישור. זה קובע תקדים מסוכן עבור הפצת תיאוריות קונספירציה ויצירת תיבות רעש שבהן משתמשים מוזנים באופן בלעדי מה שהם רוצים לראות, ללא קשר לדיוק או להשפעה החברתית של מה שנראה.
מחקר של MIT הצליח להדגים שידיעות כוזבות בטוויטר מתפשטות 6 פעמים מהר יותר מחדשות אמיתיות.
זה אומר ששני טוויטר ופייסבוק יכולים להיות מנשקים. בעוד טוויטר מאפשר לכל אחד לעקוב בכוונה אחרי זרמים עם נקודות מבט צרות או מוטות, פייסבוק הולכת צעד נוסף. משתמש בפייסבוק כרגע אין דרך לשלוט או למדוד מה שנראה, זה נשלט כולו על ידי מנוע ההמלצות של פייסבוק, כיצד הוא מודד מעורבות משתמש, וכיצד הוא מאפטימיזה למעורבות משתמש זהה.
פייסבוק מנסה לעצב ולחזות את הרצונות של משתמשיה. פייסבוק מעריכה באיזו מידה משתמש יאהב או ישנא פריט חדשות שטרם נחווה על ידי המשתמש. כדי למנוע אובדן במעורבות משתמש, פייסבוק בוחרת לדלג על פריטי חדשות שעלולים להפחית את רמת המעורבות, ובוחרת במקום זאת לעורר את המשתמש על ידי הזנת פריטי חדשות שמזינים את הטיה לאישור, ומבטיחים יותר קליקים, תגובות, לייקים ושיתופים.
פייסבוק גם משתמשת בסינון שיתופי משותף אוטומטי של פעולות היסטוריות ודעות של משתמשים כדי לחבר אוטומטית משתתפים (חברים) עם דעות דומות. פייסבוק משתמשת בפונקציה יועילה שמנבאת ומדרגת אוטומטית ומתמטית את ההעדפות שלך לפריטים שאתה רוצה לראות.
זה גורם למשתמשים ליפול לתוך בור רבתי, הם נלכדים בחדשות כוזבות, מוזנים בתוכן שמחזק את הטיה שלהם. התוכן שמוצג הוא בעל מטרה מובנית להשפיע על מה שאתה לוחץ. אם אתה מאמין בקונספירציה שביל גייטס מנסה למיקרוצ’יפ את האוכלוסייה האנושית באמצעות חיסונים, למה פייסבוק צריכה להציג לך ראיות סותרות שעלולות לגרום לך להיפרד מהפלטפורמה? אם אתה תומך במועמד פוליטי מסוים, למה פייסבוק צריכה להציע חדשות שעלולות לסתור את הדעות החיוביות שלך על אותו מועמד?
כאילו זה לא היה מספיק, פייסבוק גם מעורבת במה שנקרא “הוכחה חברתית”. הוכחה חברתית היא המושג שאנשים יעקבו אחרי פעולות ההמונים. הרעיון הוא שכיוון שכל כך הרבה אנשים אחרים מתנהגים בצורה מסוימת, זו חייבת להיות ההתנהגות הנכונה.
פייסבוק מספקת הוכחה חברתית זו בהקשר של לייקים, תגובות או שיתופים. מכיוון שרק חברים מסוימים יכולים לראות פריט חדשות (אלא אם הם מחפשים במכוון את חדשות המשתמש), הוכחה חברתית פשוט מחזקת את הטיה לאישור.
פייסבוק גם משתמשת ב-בועות פילטר כדי להגביל את החשיפה לנקודות מבט סותרות, מנוגדות ואתגריות.
פרסומות פייסבוק
משתמשים בפייסבוק שאינם מודעים עלולים ל-לחוץ על פרסומות מבלי לדעת שהם מוצגים עם פרסומות. הסיבה לכך היא פשוטה, אם יש פרסומת, רק האדם הראשון שמוצג עם הפרסומת יראה את הפרסומת. אם המשתמש הזה שותף את הפרסומת, כל מי שנמצא ברשימת חברים שלו רואה את ה”שיתוף” כפריט חדשות, כי פייסבוק במכוון מוחקת את הפרסומת. מיד, משתמשים מורידים את השמירה שלהם, הם לא מסוגלים להבדיל בין מהו פרסומת ומהו פריט חדשות שהופיע באופן טבעי בחדשות שלהם.
שיתופים פייסבוק
לצערינו, הדברים הופכים לגרועים יותר. אם משתמש יש 1000 חברים שמשתפים תוכן בו-זמנית, מנוע ההמלצות יעדיף תוכן מהמיעוט שיש להם אותם דעות, אפילו אם אלו מורכבים מתיאוריות קונספירציה לא מוכחות. המשתמש ודאי תחת האשליה שפריטי חדשות אלו נראים על ידי כולם. על ידי השתתפות בחדשות האלו, משתמשים אלו מאפטימיזים זה את זה הוכחה חברתית.
אם משתמש מנסה להאיר את משתמש אחר על פריט מוטעה או כוזב, הפעולה עצמית של תגובה או השתתפות בחדשות פשוט מגדילה את זמן המעורבות המקורי. לופ הואקום זה גורם לפייסבוק לחזק את המשתמש עם עוד חדשות כוזבות.
זה יוצר תיבת רעש, בועת פילטר שבה משתמש מאומן להאמין רק במה שהוא רואה. האמת היא פשוט אשליה.
רצינות הנושא
יותר מ-10 מיליון אנשים השתתפו בחדשות שטענו שהאפיפיור פרנסיס יצא בעד הבחירות של טראמפ ב-2016. לא היה שום ראיה לכך, זו הייתה פשוט סיפור חדשות כוזב שיצא מרוסיה, אך זו הייתה החדשה המשותפת ביותר בפייסבוק בשלושת החודשים שקדמו לבחירות 2016.
הפריט נוצר על ידי חוות טרולים רוסית המכנה את עצמה “סוכנות מחקר האינטרנט”. ארגון זה היה אחראי לקידום ושיתוף מאמרים בטוויטר ופייסבוק שגינו את תנועת “חיי שחורים חשובים” ונשקו חדשות כוזבות שפילסו טענות כוזבות על פוליטיקאים אמריקאים.
ועדת הביטחון הלאומי הוציאה דו”ח בן 85 עמודים המפרט קמפיינים רוסים פעילים והתערבות, רובם היה הפצת חדשות כוזבות ותעמולה שהיו מיועדות להשפיע על הבחירות ב-2016.
קדימה לבחירות 2020 והבעיה רק התעצמה. בספטמבר 2020, לאחר רמז FBI, פייסבוק וטוויטר השעו חשבונות מדיה חברתית עבור ארגון חדשות המכונה PeaceData, המקושר למאמצי תעמולה ממלכתיים של רוסיה.
לצערינו, סגירת חשבונות היא פתרון זמני ולא יעיל. חשבונות רוסים לעיתים קרובות לוקים בצורה של בקשות חברות, לעיתים קרובות מזועזעות על ידי נשים עם פרופילים מושכים שמטרים גברים, או עם חשבונות משתמשים שנגנבו עם היסטוריה של פוסטים רגילים. חשבונות אלו משנים לאט לאתרים פוליטיים, עד שהם מובלעים בתעמולה או בתיאוריות קונספירציה.
משתמש לא מודע עלול להיות מודע לכך שחשבון חבר פורץ. אם המשתמש הזה פגיע לתיאוריות קונספירציה, הוא עלול להשתתף בפריט חדשות כוזב, הטרול הרוסי, שלרוב הוא בוט, אז מספק הוכחה חברתית נוספת בצורה של לייקים או תגובות.
משתמשים פגיעים בדרך כלל הם אלו שמבינים הכי פחות כיצד טכנולוגיה ו-AI עובדים. הדמוגרפיה מעל גיל 65, שהיא האוכלוסייה שכיום כיותר ברור שתצביע, היא גם הכי נוטה להפיץ חדשות כוזבות, כפי שדווח על ידי הניו יורק טיימס.
על פי המחקר, משתמשי פייסבוק בני 65 ומעלה פרסמו שבע פעמים יותר מאמנים מאתרי חדשות כוזבים מאשר מבוגרים בני 29 ומתחת. מחסור בספרות מדיה דיגיטלית הותיר את קבוצת הגיל הזו לא מוכנה לחדשות שאינן מבוססות על עובדות או על דיוק, אלא בלעדית על מעורבות משתמש.
גורמים רעים לוקחים יתרון במנוע ההמלצות של פייסבוק, שמנצל את הטיה הקוגניטיבית שלנו נגדנו. ארגונים אלו האופטימיזציה את הניצול של AI של פייסבוק כדי להפיץ תיאוריות קונספירציה ותעמולה. תיאוריות קונספירציה שעלולות להיראות תמימות בתחילה, לעיתים קרובות משמשות כמהדרינים לעליונות לבנה, לאומנות ימנית-קיצונית, או QAnon תיאורית קונספירציה מוזרה הקשורה לניסיונו של טראמפ להציל את העולם מפוליטיקאים ליברלים, קונספירציה שאין לה שום בסיס במציאות.
סיכום
פייסבוק ברור שמודעת לכך שיש בעיה והיא הכריזה בפומבי אסטרטגיה שמתמקדת בהסרת תוכן שמפר את תקנות הקהילה של פייסבוק. הבעיה היא שמחיקת חשבונות היא פתרון זמני שאינו יעיל כאשר חשבונות מיוצרים בכמויות גדולות על ידי בוטים, או על ידי האקינג המוני של חשבונות משתמש. זה גם לא פותר את הבעיה שרוב השיתוף הוא על ידי משתמשים רגילים שאינם מודעים לכך שהם מפיצים מידע כוזב.
הוספת תוויות אזהרה פשוט מחזקת תיאוריות קונספירציה שענקיות מדיה חברתית מוטות נגד שמרנים, שהם הכי פגיעים לחדשות כוזבות.
הפתרון צריך להיות מנוע המלצות חדש שמודד לא רק מעורבות משתמש, אלא מאופטימיזה לאושר משתמש על ידי מתן אמת וקידום הכרה עצמית משופרת.
בינתיים, פייסבוק צריכה לעקוב אחרי הדרך ש-טוויטר נקטה כדי לאסור פרסומות פוליטיות.
לבסוף, שאלה חשובה צריכה להישאל. אם אנשים לא עוד בוחרים את החדשות שהם רואים, מתי זה הופך מהמלצה לשליטה במוח?
קריאה מומלצת:
קמפיינים רוסים פעילים והתערבות – דו”ח מוועדת המודיעין של הסנאט האמריקאי.
המאמר המזעזע החוזה את סוף הדמוקרטיה – על ידי ריק שנקמן, מייסד רשת החדשות ההיסטורית של אוניברסיטת ג’ורג’ וושינגטון.
אנשים מבוגרים חולקים חדשות כוזבות בפייסבוק יותר – על ידי הניו יורק טיימס.












