Лідери думок
Як ШІ Facebook поширює дезінформацію та загрожує демократії

Ден Тункеланг, який керував дослідженнями штучного інтелекту в LinkedIn, заявив: «Якщо рекомендації мають силу впливати на рішення, вони стають мішенню для спамерів, шахраїв та інших людей з неблагородними мотивами».
Це труднощі, з якими стикаються компанії соціальних мереж, такі як Facebook. використовує Facebook неявний зворотний зв'язок для відстеження кліків, переглядів та іншої вимірної поведінки користувачів. Це використовується для розробки того, що називається «системою рекомендацій», системою штучного інтелекту, яка має повну владу вирішувати, хто переглядає, який вміст і коли.
Facebook оптимізував свій механізм рекомендацій, щоб максимізувати залучення користувачів, яке вимірюється кількістю часу, проведеного на платформі Facebook. Максимізація часу має пріоритет над будь-якою іншою змінною, включаючи якість або точність того, що рекомендовано.
Система створена для винагороди за сенсаційні заголовки, які залучають користувачів, використовуючи когнітивну упередженість, навіть якщо ці заголовки написані російськими тролями з наміром розділити суспільство чи вплинути на політичні вибори.
Як Facebook використовує ШІ
Існує недостатня обізнаність про те, як Facebook використовує штучний інтелект для визначення того, що бачать і з чим взаємодіють його користувачі. Спочатку потрібно зрозуміти, що таке упередження підтвердження. Psychology Today описує це як:
Упередження підтвердження — це схильність шукати, інтерпретувати, надавати перевагу та згадувати інформацію таким чином, щоб вона підтверджувала або підтримувала попередні переконання чи цінності.
Facebook розуміє, що користувачі частіше натискають на новини, що сприяє людській схильності шукати підтвердження. Це створює небезпечний прецедент як для поширення теорій змови, так і для створення ехо-камер, де користувачам годують виключно те, що вони хочуть бачити, незалежно від точності чи суспільного впливу побаченого.
A дослідження MIT вдалося продемонструвати, що фейкові новини в Twitter поширюються в 6 разів швидше, ніж справжні новини.
Це означає, що і Twitter, і Facebook можуть стати зброєю. Хоча Twitter дозволяє будь-кому навмисно стежити стрічки з вузькими або упередженими поглядами, Facebook йде ще далі. Користувач Facebook наразі не має жодного способу контролювати чи вимірювати те, що він бачить, це повністю контролюється механізмом рекомендацій Facebook, тим, як він вимірює залученість користувачів і як він оптимізує для цієї ж залученості користувачів.
Facebook намагається формувати та прогнозувати бажання своїх користувачів. Facebook оцінює, якою мірою користувачеві сподобається чи не сподобається новина, яку він ще не бачив. Щоб уникнути втрати залученості користувачів, Facebook вирішує обійти новини, які можуть знизити рівень залученості, і натомість вирішує залучати користувача, надсилаючи новини, що сприяє упередженню підтвердження, забезпечуючи більше кліків, коментарів, лайків і акції.
Facebook також використовує автоматизовану спільну фільтрацію історичних дій і думок користувачів, щоб автоматично зіставляти учасників (друзів) зі схожими думками. Facebook використовує службову функцію, яка автоматично та математично передбачає та ранжує ваші вподобання для елементів, які ви хочете побачити.
Це призводить до того, що користувачі потрапляють у кролячу нору, вони потрапляють у пастку фейкових новин, їх годують контентом, який посилює їх упередженість. Вміст, який представлено, за своєю суттю створено з метою впливу на те, що ви натискаєте. Зрештою, якщо ви вірите в змову про те, що Білл Гейтс намагається чіпувати людську популяцію за допомогою вакцин, навіщо Facebook надавати вам суперечливі докази, які можуть змусити вас відмовитися від платформи? Якщо ви підтримуєте певного політичного кандидата, чому Facebook має пропонувати новини, які можуть суперечити вашим позитивним поглядам на цього самого кандидата?
Ніби цього було недостатньо, Facebook також використовує так званий «соціальний доказ». Соціальний доказ — це концепція того, що люди будуть слідувати діям мас. Ідея полягає в тому, що оскільки так багато інших людей поводяться певним чином, це має бути правильна поведінка.
Facebook надає цей соціальний доказ у контексті вподобань, коментарів або поширення. Оскільки лише певні друзі можуть бачити елемент стрічки новин (якщо вони спеціально не шукають у стрічці новин користувача), соціальний доказ просто служить для підсилення упередженості підтвердження.
Facebook також використовує фільтрувати бульбашки щоб обмежити вплив суперечливих, суперечливих та/або суперечливих точок зору.
Facebook Оголошення
Нічого не підозрюють користувачі Facebook натискання реклами без відома що їм показують рекламу. Причина цього проста: якщо є реклама, лише перша особа, яка побачить рекламу, побачить застереження щодо реклами. Якщо цей користувач ділиться рекламою, усі в його списку друзів просто бачать «поділитися» як елемент стрічки новин, оскільки Facebook навмисно скидає застереження щодо реклами. Одразу користувачі втрачають пильність, вони не можуть відрізнити, що є рекламою, від того, що органічно з’явилося б у їхній стрічці новин.
Акції Facebook
На жаль, ситуація погіршується. Якщо у користувача є 1000 друзів, які одночасно діляться контентом, система рекомендацій надаватиме пріоритет контенту від меншості, яка поділяє ті самі погляди, навіть якщо ці погляди часто складаються з недоведених теорій змови. Тоді користувач матиме ілюзію, що ці елементи стрічки новин бачать усі. Взаємодіючи з цією стрічкою новин, ці користувачі оптимізують соціальний доказ один одного.
Якщо користувач намагається розповісти іншому користувачеві про оманливу або підроблену інформацію, сам акт коментування або взаємодії з новинною стрічкою просто збільшує початковий час взаємодії користувача. Ця петля зворотного зв’язку змушує Facebook посилити залучення цього користувача додатковими фейковими новинами.
Це викликає ехокамеру, бульбашку фільтра, де користувача навчають вірити лише тому, що він бачить. Правда - це просто ілюзія.
Серйозність проблеми
Понад 10 мільйонів людей займається стрічкою новин стверджуючи, що Папа Франциск висловився на підтримку обрання Трампа у 2016 році. Жодних доказів цього не було, це була просто фейкова новина, що вийшла з Росії, проте це була найпоширеніша новина у Facebook за три місяці до виборів 2016 року.
Новину згенерувала російська ферма тролів, яка називає себе «Агентство інтернет-досліджень». Ця сама організація була відповідальною за просування та розповсюдження в Twitter і Facebook статей, що розпалюють гонку, на користь демонізації життя темношкірих, що має значення, і озброєння фейкових новин, які поширюють неправдиві твердження про американських політиків.
Спеціальний комітет з розвідки оприлюднив Звіт на 85 сторінки з детальним описом російських активних кампаній і втручання, основна частина яких включала поширення суперечливих фейкових новин і пропаганду, яка мала єдиний намір вплинути на вибори в США 2016 року.
Перенесіться до виборів 2020 року, і проблема лише загострилася. У вересні 2020 року після повідомлення ФБР у Facebook і Twitter закрили акаунти в соціальних мережах для новинної організації під назвою PeaceData, яка пов'язана з державною пропагандою Росії.
На жаль, закриття облікових записів є тимчасовим і неефективним рішенням. Російські облікові записи часто мають форму запитів друзів, часто викликають огиду до жінок із привабливими профілями, націленими на чоловіків, або з викраденими обліковими записами користувачів з історією регулярних публікацій. Ці викрадені облікові записи повільно переходять на більш політичні пости, поки в них не домінує пропаганда або теорії змови.
Нічого не підозрюючи користувач може не знати, що обліковий запис друзів зламано. Якщо цей користувач вразливий до теорій змови, він може залучитися до фейкової стрічки новин, російський троль, який часто є ботом, надає додатковий соціальний доказ у формі лайків або коментарів.
Уразливими користувачами часто є ті, хто найменше розуміє, як працюють технології та ШІ. Демографічна група старше 65 років, яка найімовірніше голосуватиме, також найімовірніше поширюватиме фейкові новини, оскільки повідомляє New York Times.
Згідно з дослідженням, користувачі Facebook у віці 65 років і старше публікували в сім разів більше статей із сайтів фейкових новин, ніж дорослі віком 29 років і молодше. Відсутність цифрової медіаграмотності робить цю вікову групу неготовою до стрічки новин, яка базується не на фактах чи точності, а виключно на залученні користувачів.
Зловмисники користуються рекомендаційною системою Facebook, яка експлуатує наші когнітивні упередження проти нас. Ці ж організації оптимізували зловживання штучним інтелектом Facebook для поширення теорій змови та пропаганди. Теорії змови, які спочатку можуть здаватися невинними, часто використовуються як воронки проникнення до білого супрематизму, ультраправого націоналізму чи... QAnon химерна теорія змови за участю Трампа, який намагається врятувати світ від ліберальних педофілів, змова, яка не має реальних підстав.
Підсумки
Facebook чітко усвідомлює, що є проблема, і вони публічно це роблять оголосив стратегію який спрямований на видалення вмісту, який порушує стандарти спільноти Facebook. Проблема полягає в тому, що видалення облікових записів є тимчасовим тимчасовим заходом, який є неефективним, коли облікові записи масово створюються ботами або під час масового злому облікових записів користувачів. Це також не вирішує проблему того, що більшу частину обміну здійснюють звичайні користувачі, які не підозрюють, що поширюють дезінформацію.
Додавання попереджувальних міток просто служить для підкріплення теорій змови про те, що гіганти соціальних медіа упереджено ставляться до консерваторів, які найбільше чутливі до фейкових новин.
Рішенням має бути новий механізм рекомендацій, який вимірює не лише залучення користувачів, але й оптимізований для задоволення користувачів, доносячи правду та сприяючи підвищенню самосвідомості.
Тим часом Facebook має піти цим шляхом Twitter заборонив політичну рекламу.
Нарешті, необхідно поставити важливе питання. Якщо у людей більше немає вибору щодо новин, які вони дивляться, коли це перестане бути рекомендацією, а коли стане контролем розуму?
Рекомендуємо до прочитання:
Російські активні кампанії та втручання – Звіт спеціального комітету з розвідки Сенату Сполучених Штатів.
Шокуюча стаття про кінець демократії - До Рік Шенкман, засновник мережі історичних новин університету Джорджа Вашингтона.
Люди похилого віку діляться фейковими новинами у Facebook Більше – New York Times












