Етика
Штучний інтелект може боротися з дезінформацією та упередженням у новинах

Дезінформація та упередження у новинах стали одним із найбільших викликів, з якими суспільство зіштовхнулося в останні роки. Речі, такі як інформаційні операції, діпфейки, фінансовий вплив та використання соціальної напруженості, є новими інструментами, які використовуються як окремими особами, так і державними акторами по всьому світу.
Дезінформація – це загальний термін для неправильної інформації, і вона грає значну роль у маніпуляції громадською думкою. У той же час вона використовується як атака проти політичних лідерів і погіршує розкол між групами в різних країнах. Більше, ніж будь-коли, дезінформація впливає на виборчу кабіну, і вона стала неймовірно ефективною.
Дезінформація, яка трохи відрізняється від дезінформації, – це навмисно введена в оману або упереджена інформація. Вона може включати маніпульовані нарративи та факти. Інакше кажучи, це пропаганда.
У звіті 2019 року дослідники Оксфордського університету описали організовані кампанії дезінформації в 70 різних країнах, включаючи Росію, Китай, В’єтнам та Гватемалу.
Цифрова економіка призвела до зростання дезінформації та упередження у новинах, а технології штучного інтелекту та соціальні медіа-платформи стали засобами для поширення їх серед мас.
Ми бачили багато прикладів цього. Наприклад, два попередні президентські вибори в США були наповнені дезінформацією та упередженням, і це, безумовно, продовжиться в майбутньому. Фінансові ринки також піддаються короткостроковому маніпулюванню через дезінформацію та упередження, а іноземні справи стають більш напруженими внаслідок їх використання. Соціальна напруженість викликана помилковою інформацією проти прихильників та противників конкретних причин, а фейкові новини панують у майже кожній країні.
Наша залежність від соціальних медіа та алгоритмів зробила нас неймовірно вразливими до дезінформації та упередження, і стало легко маніпулювати великими групами людей.
Згідно з есе під назвою “Упередження роблять людей вразливими до дезінформації, поширеної соціальними медіа”, опублікованому The Conversation, мережею некомерційних медіа-видань, існують три типи упереджень, які роблять екосистему соціальних медіа вразливою до навмисної та ненавмисної дезінформації. Важливо визнати, що більшість наших новин зараз походять із соціальних медіа.
Три типи упереджень:
- Упередження в мозку: “Когнітивні упередження походять від того, як мозок обробляє інформацію, яку кожна людина зустрічає щодня.”
- Упередження у суспільстві: “Коли люди зв’язуються безпосередньо зі своїми однолітками, соціальні упередження, які керують їхнім вибором друзів, починають впливати на інформацію, яку вони бачать.
- Упередження в машині: “Третя група упереджень виникає безпосередньо з алгоритмів, які використовуються для визначення того, що люди бачать в Інтернеті. Соціальні медіа-платформи та пошукові системи використовують їх.”
Ця комбінація упереджень створила ідеальну середовище для злих акторів використовувати наші поточні платформи новин як засіб поширення дезінформації. Але важливо визнати, що упередження також присутнє поза цією сферою. Регулярні новинні репортажі та статті ризикують бути упередженими через власні нахили автора чи видання. Це нічого нового.
Рішення штучного інтелекту для дезінформації та упередження
Поява штучного інтелекту надала нам багато нових та інноваційних інструментів, які можна використовувати для боротьби з дезінформацією та упередженням у новинах.
Наприклад, якщо його правильно спроєктувати, штучний інтелект може ефективно виявляти та видаляти певну дезінформацію та інші проблемні контенти в Інтернеті. Його вже використовують для ідентифікації фейкових ботів компаніями, такими як Google, Twitter та Facebook. А фейкові боти часто використовуються для поширення дезінформації та упереджених новин.
Необхідно досліджувати нові рамки штучного інтелекту для боротьби з цією проблемою, а існуючі потрібно покращувати, оскільки багато з них виявилися проблематичними. Ці проблеми починають ставати ще більш небезпечними, коли виникають конфлікти. Наприклад, військові конфлікти, такі як поточний російсько-український конфлікт, призводять до поширення дезінформації неймовірно швидкими темпами.
Є різні інструменти, що працюють на основі штучного інтелекту, які ось-ось з’являться. Наприклад, NT CONNECT, міжнародний розробник технологій, недавно оголосив про запуск свого агрегатора новин, NOOZ.AI. Двигун аналізу мови на основі штучного інтелекту має на меті принести прозорість до поляризованого упередження, яке існує в сучасних засобах масової інформації. Він намагається досягти цього, інформуючи читачів про вплив засобів масової інформації до того, як вони прочитають статтю.
“Автори чи журналісти схильні схилятися до певного упередження – часто без знання читача”, – говорить прес-реліз компанії. “Відповідно до історичного упередження автора та джерел новин споживачі можуть розглянути статтю з більш об’єктивним розумом і протистояти маніпулюванню, щоб думати певним чином про будь-яку конкретну тему.”
Інструмент NOOZ.AI побудований на чотирьох ключових підвалинах:
- Аналіз думки: Він допомагає читачам визначити присутність особистих почуттів, поглядів, переконань чи суджень у написанні журналіста.
- Аналіз настрою: Інструмент використовує аналіз настрою, щоб допомогти читачам оцінити підтримку чи опозицію письменника щодо загального змісту новин чи конкретної теми.
- Аналіз пропаганди: Він може виявити потенційну дезінформацію, ідентифікуючи використання до 18 можливих методів переконання.
- Аналіз редакції: Читачі можуть розслідувати еволюцію новинної історії та її маніпулювання думкою та настроєм з плином часу.
Додаток надає оцінки для кожної статті, з оціками думки від 0 до 100 і оцінками настрою від -100 до 100. Він також відстежує всі редагування тексту для кожної редакції та надає читачам можливість порівняти різні версії.
Згідно з Гері Паксіносом, технічним директором NT CONNECT:
“Упереджене висвітлення є серйозною проблемою у сучасному суспільстві. Дезінформація – це найчастіше вживане слово. Але реальність полягає в тому, що мова сама по собі може бути використана для маніпулювання та переконання звичайного читача. Об’єктивно аналізуючи мову, ми уникаємо суб’єктивного упередження, яке існує в інших підходах. На відміну від суб’єктивного маркування дезінформації, наш підхід полягає в тому, щоб висвітлити, як можна маніпулювати надмірними заголовками, історією редагувань та текстом статей.”












