Лідери думок
Як штучний інтелект Facebook поширює дезінформацію та загрожує демократії

Dan Tunkelang, який керував дослідженнями штучного інтелекту в LinkedIn, заявив: «Момент, коли рекомендації мають силу впливати на рішення, вони стають мішенню для спамерів, шахраїв та інших людей з менш ніж благородними мотивами».
Це дилема, з якою стикаються компанії соціальних медіа, такі як Facebook. Facebook використовує імпліцитну відгук для відстеження кліків, переглядів та інших вимірюваних поведінок користувачів. Це використовується для розробки того, що називається “системою рекомендацій”, системою штучного інтелекту, яка має вирішальну силу щодо того, хто бачить який контент і коли.
Facebook оптимізував свою систему рекомендацій для максимізації взаємодії користувачів, яку вимірюють за кількістю часу, проведеного на платформі Facebook. Максимізація часу має пріоритет над будь-якою іншою змінною, включаючи якість або точність рекомендованого контенту.
Система розроблена для винагороди сенсаційних заголовків, які залучають користувачів, використовуючи когнітивні упередження, навіть якщо ці заголовки написані російськими троллями з метою розділення суспільства чи впливу на політичні вибори.
Як Facebook використовує штучний інтелект
Є відсутність усвідомлення того, як Facebook використовує штучний інтелект для рішення про те, який контент бачать його користувачі. Спочатку потрібно зрозуміти, що таке підтверджувальна упередженість. Psychology Today описує це як:
Підтверджувальна упередженість – це тенденція шукати, інтерпретувати, схвалювати та запам’ятовувати інформацію таким чином, щоб вона підтверджувала або підтримувала попередні вірування чи цінності.
Facebook розуміє, що користувачі більш схильні клікувати на новини, які підживлюють людську тенденцію до пошуку підтверджувальної упередженості. Це встановлює небезпечний прецедент як для поширення теорій змови, так і для створення ехо-камер, де користувачам подається виключно те, що вони хочуть бачити, незалежно від точності чи суспільного впливу того, що бачать.
Дослідження Массачусетського технологічного інституту змогло продемонструвати, що фейкові новини в Twitter поширюються в 6 разів швидше, ніж справжні новини.
Це означає, що і Twitter, і Facebook можуть бути використані як зброя. Хоча Twitter дозволяє будь-кому свідомо слідкувати за джерелами з вузькими або упередженими поглядами, Facebook іде далі. Користувач Facebook зараз не має жодного способу контролювати чи вимірювати те, що бачить, це контролюється повністю системою рекомендацій Facebook, тим, як вона вимірює взаємодію користувачів, і тим, як вона оптимізує цю саму взаємодію користувачів.
Facebook намагається формувати та передбачати бажання своїх користувачів. Facebook оцінює, наскільки користувач буде любити чи не любити новину, з якою він ще не ознайомився. Щоб уникнути втрати взаємодії користувачів, Facebook вирішує обходити новини, які можуть зменшити рівень взаємодії, і вирішує замість цього залучити користувача, годуючи його новинами, які підживлюють підтверджувальну упередженість, забезпечуючи більше кліків, коментарів, лайків і поділів.
Facebook також використовує автоматичне колаборативне фільтрування історичних дій та думок користувачів для автоматичного підтримання учасників (друзів) з подібними думками. Facebook використовує утилітарну функцію, яка автоматично та математично передбачає та ранжує ваші переваги для товарів, які ви хочете бачити.
Це призводить до того, що користувачі потрапляють у кроличу нору, вони потрапляють у фейкові новини, їм подається контент, який підтримує їхню упередженість. Представлений контент розроблений з метою впливу на те, на що ви клікнете. Якщо ви вважаєте, що теорія змови про те, що Білл Гейтс намагається мікрочіпувати людство за допомогою вакцин, чому Facebook повинен представити вам суперечливу доказову базу, яка може змусити вас розлучитися з платформою? Якщо ви підтримуєте певного політичного кандидата, чому Facebook повинен пропонувати новини, які можуть суперечити вашим позитивним поглядам на цього кандидата?
Якби цього було недостатньо, Facebook також займається тим, що називається “соціальним підтвердженням”. Соціальне підтвердження – це концепція, згідно з якою люди будуть слідувати діям мас.
Facebook забезпечує це соціальне підтвердження в контексті лайків, коментарів чи поділів. Оскільки тільки певні друзі можуть бачити новину (якщо вони не конкретно шукають ленту користувача), соціальне підтвердження просто служить для підтримки підтверджувальної упередженості.
Facebook також використовує фільтрувальні бульбашки для обмеження доступу до суперечливих, протирічних та викликових поглядів.
Реклама Facebook
Непідозрювані користувачі Facebook можуть клікувати на рекламу без усвідомлення того, що їм подається реклама. Причина полягає в тому, що якщо це реклама, тільки перший користувач, якому показана реклама, бачить дисклеймер реклами. Якщо цей користувач поділиться рекламою, всі користувачі в його списку друзів бачать тільки “поділ” як новину, оскільки Facebook свідомо видалить дисклеймер реклами. Негайно користувачі знижують свою охорону, вони не можуть розрізняти, що є рекламою, а що з’явилося б органічно в їхній ленті.
Поділ Facebook
На жаль, ситуація ще погіршується. Якщо у користувача 1000 друзів, які одночасно поділяють контент, система рекомендацій буде пріоритизувати контент меншості, яка поділяє ті самі погляди, навіть якщо ці погляди часто складаються з непідтверджених теорій змови. Користувач потім буде під впливом ілюзії, що ці новини бачать усі. Взаємодіючи з цією новиною, ці користувачі оптимізують соціальне підтвердження один одного.
Якщо користувач спробує просвітити іншого користувача про вводючу в оману або фейкову інформацію, сам акт коментування або взаємодії з новиною просто збільшує час взаємодії оригінального користувача. Цей зворотний зв’язок призводить до того, що Facebook підтримує взаємодію цього користувача з додатковими фейковими новинами.
Це створює ехо-камеру, фільтрувальну бульбашку, де користувача навчають вірити тільки в те, що він бачить. Істина просто є ілюзією.
Серйозність питання
Більше 10 мільйонів людей взаємодіють з новиною, яка стверджує, що Папа Франциск висловився на підтримку виборів Трампа в 2016 році. Не було жодних доказів цього, це була просто фейкова новина, яка вийшла з Росії, але це була найпоширеніша новина на Facebook у три місяці, що передували виборам 2016 року.
Новина була створена російською фермою троллів, яка називається “Інтернет- дослідницька агенція”. Ця сама організація була відповідальною за просування та поділ фейкових новин на Twitter та Facebook, які мали на меті дискредитувати рух “Black Lives Matter” та поширення фейкових новин, які поширювали неправдиві заяви про американських політиків.
Комітет з розвідки Сенату опублікував 85-сторінковий звіт, який деталізує російські активні заходи щодо кампаній та втручання, більша частина яких полягала у поширенні дезінформації та пропаганди, метою якої було вплив на вибори в США 2016 року.
Перейшовши до виборів 2020 року, проблема тільки погіршилася. У вересні 2020 року після提示 ФБР Facebook та Twitter призупинили соціальні медіа-акаунти для новинної організації під назвою PeaceData, пов’язаної з російськими державними пропагандистськими зусиллями.
На жаль, закриття акаунтів є тимчасовим і неефективним рішенням. Російські акаунти часто мають форму запитів на дружбу, часто обурених жінками з привабливими профілями, які націлені на чоловіків, або ж використовують захоплені акаунти користувачів з історією регулярних постів. Ці захоплені акаунти повільно переходять до більш політичних постів, поки вони не будуть домінуватися пропагандою чи теоріями змови.
Непідозрюваний користувач може бути не усвідомлює, що акаунт друга був скомпрометований. Якщо цей користувач вразливий до теорій змови, він може взаємодіяти з фейковою новиною, російський троль, який часто є ботом, потім забезпечує додаткове соціальне підтвердження у вигляді лайків чи коментарів.
Вразливі користувачі часто є тими, хто найменше розуміє, як працює технологія та штучний інтелект. Демографічна група старше 65 років, яка є населенням, найбільш схильним до голосування, також є найбільш схильним до поширення фейкових новин, як повідомляє New York Times.
За даними дослідження, користувачі Facebook у віці 65 років і старші публікували статті з фейкових новинових сайтів у сім разів більше, ніж дорослі у віці 29 років і молодші. Недостатня цифрова медіа-грамотність робить цю демографічну групу непідготовленою до новинної ленти, яка не ґрунтується на фактах чи точності, а виключно на взаємодії користувачів.
Погані актори використовують систему рекомендацій Facebook, яка використовує наші когнітивні упередження проти нас. Ці самі організації оптимізували зловживання штучним інтелектом Facebook для поширення теорій змови та пропаганди. Теорії змови, які можуть здаватися невинними на перший погляд, часто використовуються як труби для білих супрематистів, крайніх правих націоналістів або QAnon – дивної теорії змови, яка涉ляє Трампа, який намагається врятувати світ від ліберальних педофілів, теорію, яка не має жодного підґрунтя в реальності.
Резюме
Facebook явно усвідомлює, що існує проблема, і вони публічно оголосили стратегію, яка зосереджується на видаленні контенту, який порушує стандарти спільноти Facebook. Проблема полягає в тому, що видалення акаунтів є тимчасовим заходом, який є неефективним, коли акаунти генеруються в масовому порядку ботами чи масовим хакінгом акаунтів користувачів. Це також не вирішує проблему, що більшість поширення здійснюється регулярними користувачами, які не усвідомлюють, що вони поширюють дезінформацію.
Додавання попереджувальних міток просто служить для підтримки теорій змови, які стверджують, що соціальні медіа-гіганти упереджені проти консерваторів, які є найбільш сприйнятливими до фейкових новин.
Рішення повинно полягати у новій системі рекомендацій, яка вимірює не тільки взаємодію користувачів, але й оптимізована для щастя користувачів шляхом надання істини та сприяння підвищенню самосвідомості.
У міжчасі Facebook повинен слідувати шляху, який взяв Twitter, щоб заборонити політичну рекламу.
Останнім часом потрібно поставити важливе питання. Якщо люди більше не мають вибору щодо новин, які вони бачать, коли це перестає бути рекомендацією і коли це стає контрольом над думками?
Рекомендоване читання:
Російські активні заходи щодо кампаній та втручання – Звіт Комітету з розвідки Сенату США.
Шокуючий документ, який передбачає кінець демократії – Від Ріка Шенкмана, засновника Історичної мережі новин Джорджа Вашингтона.
Старші люди більше поширюють фейкові новини на Facebook – Від New York Times












