Лидеры мнений
Как ИИ Facebook Распространяет Дезинформацию и Угрожает Демократии

Dan Tunkelang, который руководил исследованием ИИ в LinkedIn, заявил: “В момент, когда рекомендации имеют власть влиять на решения, они становятся целью для спамеров, мошенников и других людей с не совсем благородными мотивами.”
Это дилемма, с которой сталкиваются социальные медиа-компании, такие как Facebook. Facebook использует неявную обратную связь, чтобы отслеживать клики, просмотры и другие измеримые поведения пользователей. Это используется для проектирования того, что идентифицируется как “движок рекомендаций”, система ИИ, которая имеет окончательную власть над решением, кто видит какой контент и когда.
Facebook оптимизировал свою систему рекомендаций для максимизации вовлеченности пользователей, которая измеряется количеством времени, проведенного в режиме привязки к платформе Facebook. Максимизация времени имеет приоритет над любой другой переменной, включая качество или точность того, что рекомендуется.
Система разработана для вознаграждения сенсационных заголовков, которые вовлекают пользователей, эксплуатируя когнитивные предубеждения, даже если эти заголовки написаны российскими троллями с целью разделения общества или влияния на политические выборы.
Как Facebook Использует ИИ
Существует недостаток осведомленности о том, как Facebook использует ИИ для решения того, что его пользователи видят и взаимодействуют с этим. Сначала нужно понять, что такое подтверждение предубеждения. Psychology Today описывает это как:
Подтверждение предубеждения – это тенденция искать, интерпретировать, отдавать предпочтение и вспоминать информацию таким образом, чтобы подтвердить или поддержать свои предыдущие убеждения или ценности.
Facebook понимает, что пользователи с большей вероятностью кликнут на новости, которые питают человеческую тенденцию к подтверждению предубеждения. Это создает опасный прецедент как для распространения теорий заговора, так и для создания эхо-камер, где пользователям подают исключительно то, что они хотят видеть, независимо от точности или социального воздействия того, что они видят.
Исследование MIT смогло продемонстрировать, что фейковые новости в Twitter распространяются в 6 раз быстрее, чем реальные новости.
Это означает, что и Twitter, и Facebook могут быть использованы как оружие. Хотя Twitter позволяет любому пользователю намеренно следить за лентами с узкими или предвзятыми взглядами, Facebook идет дальше. Пользователь Facebook в настоящее время не имеет возможности контролировать или измерять то, что он видит, это полностью контролируется движком рекомендаций Facebook, тем, как он измеряет вовлеченность пользователей, и тем, как он оптимизирует эту же вовлеченность пользователей.
Facebook пытается формировать и предсказывать желания своих пользователей. Facebook оценивает, в какой степени пользователь будет любить или не любить новостную статью, с которой пользователь еще не ознакомился. Чтобы избежать потери вовлеченности пользователей, Facebook затем выбирает обойти новостные статьи, которые могут снизить уровень вовлеченности, и вместо этого выберет вовлечь пользователя, подливая новостные статьи, которые питают подтверждение предубеждения, гарантируя больше кликов, комментариев, лайков и репостов.
Facebook также использует автоматическую коллаборативную фильтрацию исторических действий и мнений пользователей для автоматического сопоставления участников (друзей) с подобными мнениями. Facebook использует утилитарную функцию, которая автоматически и математически предсказывает и ранжирует ваши предпочтения для элементов, которые вы хотите видеть.
Это вызывает у пользователей падение в кроличью нору, они попадают в фейковые новости, им подают контент, который подкрепляет их предубеждение. Представленный контент по своей сути разработан с целью влияния на то, на что вы кликните. Ведь если вы верите в теорию заговора, что Билл Гейтс пытается микрочипировать человеческое население с помощью вакцин, почему Facebook должен представить вам противоречивые доказательства, которые могут заставить вас отказаться от платформы? Если вы поддерживаете определенного политического кандидата, почему Facebook должен предложить вам новости, которые могут противоречить вашим положительным взглядам на этого кандидата?
Как если бы этого было недостаточно, Facebook также занимается тем, что известно как “социальное доказательство”. Социальное доказательство – это концепция, что люди будут следовать действиям масс. Идея заключается в том, что поскольку так много других людей ведут себя определенным образом, это должно быть правильным поведением.
Facebook предоставляет это социальное доказательство в контексте лайков, комментариев или репостов. Поскольку только определенные друзья могут видеть элемент ленты новостей (если они не специально ищут ленту новостей пользователя), социальное доказательство просто служит для подкрепления подтверждения предубеждения.
Facebook также использует фильтр-пузыри, чтобы ограничить воздействие на противоречивые, противоречащие и сложные точки зрения.
Реклама Facebook
Неподозревающие пользователи Facebook могут кликать на рекламу без осведомленности о том, что они представлены рекламой. Причина этого проста: если есть реклама, только первый человек, который представлен рекламой, увидит заявление о рекламе. Если этот пользователь делится рекламой, все на его друзьях просто видят “репост” как элемент ленты новостей, поскольку Facebook намеренно удаляет заявление о рекламе. Сразу же пользователи снижают свою охрану, они не могут различать, что является рекламой, а что появилось бы органически на их ленте новостей.
Репосты Facebook
К сожалению, дела становятся хуже. Если у пользователя 1000 друзей, которые одновременно делятся контентом, движок рекомендаций будет отдавать приоритет контенту из меньшинства, которые делятся одинаковыми взглядами, даже если эти часто состоят из непроверенных теорий заговора. Пользователь затем будет под иллюзией, что эти элементы ленты новостей видны всем. Взаимодействуя с этой лентой новостей, эти пользователи оптимизируют социальное доказательство друг друга.
Если пользователь попытается просветить другого пользователя о вводящей в заблуждение или фейковой статье, сам акт комментирования или взаимодействия с лентой новостей просто увеличивает время вовлеченности исходного пользователя. Этот цикл обратной связи вызывает, что Facebook подкрепляет взаимодействие этого пользователя с дополнительными фейковыми новостями.
Это вызывает эхо-камеру, фильтр-пузырь, где пользователь обучен верить только в то, что он видит. Истина просто является иллюзией.
Серьезность Проблемы
Более 10 миллионов человек взаимодействовали с лентой новостей, в которой утверждалось, что Папа Франциск выступил в поддержку избрания Трампа в 2016 году. Не было никаких доказательств этого, это была просто фейковая новостная статья, которая появилась из России, но это была самая распространенная новостная статья на Facebook в три месяца, предшествующие выборам 2016 года.
Элемент ленты новостей был сгенерирован российской фермой троллей, которая называет себя “Интернет-исследовательским агентством”. Эта же организация была ответственна за продвижение и обмен в Twitter и Facebook расистскими статьями, в пользу демонизации движения “Black Lives Matter”, и вооружения фейковых новостных статей, распространяющих ложные утверждения об американских политиках.
Комитет по разведке выпустил 85-страничный отчет, в котором подробно описываются российские активные меры по кампаниям и вмешательству, большая часть которых включала распространение разногласий, фейковых новостей и пропаганды, целью которых было влияние на выборы в США в 2016 году.
Переходя к выборам 2020 года, проблема только усилилась. В сентябре 2020 года после наводки ФБР Facebook и Twitter приостановили социальные медиа-аккаунты для новостного агентства под названием PeaceData, связанного с российскими государственными пропагандистскими усилиями.
К сожалению, закрытие аккаунтов является временным и неэффективным решением. Российские аккаунты часто принимают форму запросов на дружбу, часто возмущенных женщинами с привлекательными профилями, которые нацеливаются на мужчин, или же взломанными аккаунтами пользователей с историей регулярных постов. Эти взломанные аккаунты медленно переходят к более политическим постам, пока они не будут доминировать пропагандой или теориями заговора.
Неподозревающий пользователь может быть не осведомлен о том, что аккаунт друга был скомпрометирован. Если этот пользователь уязвим для теорий заговора, он может взаимодействовать с фейковой лентой новостей, российский тролль, который часто является ботом, затем предоставляет дополнительное социальное доказательство в форме лайков или комментариев.
Уязвимые пользователи часто являются теми, кто наименее понимает, как работает технология и ИИ. Демографическая группа старше 65 лет, которая является населением, наиболее вероятно голосующим, также является наиболее вероятной для распространения фейковых новостей, как сообщает New York Times.
Согласно исследованию пользователи Facebook в возрасте 65 лет и старше публиковали в семь раз больше статей с фейковых новостных сайтов, чем взрослые в возрасте 29 лет и моложе. Недостаток цифровой медиа-грамотности имеет эту возрастную группу неподготовленной к ленте новостей, которая не основана на фактах или точности, а исключительно на вовлеченности пользователей.
Плохие акторы используют движок рекомендаций Facebook, который эксплуатирует наши когнитивные предубеждения против нас. Эти же организации оптимизировали злоупотребление ИИ Facebook для распространения теорий заговора и пропаганды. Теории заговора, которые могут показаться безобидными сначала, часто используются как воронки в белый супрематизм, крайний правый национализм или QAnon странную теорию заговора, связанную с Трампом, пытающимся спасти мир от либеральных педофилов, теории, которая не имеет никакого основания в реальности.
Резюме
Facebook явно осведомлен о том, что существует проблема, и они объявили стратегию, которая фокусируется на удалении контента, который нарушает стандарты сообщества Facebook. Проблема заключается в том, что удаление аккаунтов является временной мерой, которая неэффективна, когда аккаунты генерируются в больших количествах ботами или массовым взломом аккаунтов пользователей. Это также не решает проблему, что большинство обмена осуществляется обычными пользователями, которые не осведомлены о том, что они распространяют дезинформацию.
Добавление предупреждающих ярлыков просто служит для подкрепления теорий заговора, что социальные медиа-гиганты предвзяты против консерваторов, которые являются наиболее уязвимыми для фейковых новостей.
Решение должно быть новым движком рекомендаций, который измеряет не только вовлеченность пользователей, но и оптимизируется для счастья пользователей, доставляя истину и продвигая повышенную самосознание.
В meantime, Facebook должен следовать пути, который Twitter взял, чтобы запретить политическую рекламу.
Наконец, важный вопрос должен быть задан. Если люди больше не имеют выбора в том, какие новости они видят, когда это перестает быть рекомендацией и когда это становится контролем над разумом?
Рекомендуемое Чтение:
Российские Активные Меры по Кампаниям и Вмешательству – Отчет Комитета по Разведке Сената США.
Поражающая Бумага, Предсказывающая Конец Демократии – От Рика Шенкмана, основателя Сети Новостей Истории Джорджа Вашингтона.
Старые Люди Делятся Фейковыми Новостями на Facebook Больше – От New York Times












