Штучний інтелект
Модель штучного інтелекту може ідентифікувати розповсюджувачів дезінформації до того, як вони вчинять дії

Модель штучного інтелекту, створена дослідниками з Університету Шеффілда, потенційно може визначити, які користувачі Twitter опублікують дезінформацію до того, як вони це зроблять. Якщо модель виявиться надійною, її можна буде використовувати для доповнення існуючих методів боротьби з дезінформацією в соціальних мережах.
За даними TechXplore, дослідження було проведено під керівництвом дослідників з кафедри комп’ютерних наук Університету Шеффілда, включаючи доктора Нікоса Алетраса та Їду Му. Дослідження було опубліковано в журналі PeerJ і описує методи, використані для прогнозування того, чи буде користувач соціальної мережі поширювати дезінформацію, публікуючи контент з ненадійних джерел новин.
Команда дослідників зібрала понад 1 мільйон твітів від понад 6000 користувачів Twitter, усі публічно доступні. Команда застосувала техніки обробки природної мови для підготовки даних для навчання моделі штучного інтелекту. Модель штучного інтелекту була бінарною класифікаційною моделлю, яка маркувала користувачів як тих, хто ймовірно поширить інформацію з ненадійних джерел, або тих, хто цього не зробить. Після того, як модель була навчена на даних, вона змогла досягти приблизної точності класифікації 79,7%.
При аналізі результатів роботи моделі дослідники виявили, що користувачі, які активно використовували нецікаву мову і постійно твітували про релігію та політику, були більш схильні до поширення інформації з ненадійних джерел. Зокрема, було виявлено активне використання слів, таких як “ліберал”, “ЗМІ”, “уряд”, “Ізраїль” та “Іслам”. Тоді як користувачі, які публікували інформацію з надійних джерел, схильні були використовувати слова, такі як “я буду”, “хочу”, “моя настрій”, “емоції” та “день народження”. Крім того, вони зазвичай ділитися історіями про своє особисте життя, такі як взаємодія з друзями, їхні емоції чи інформація про їхні хобі.
Результати дослідження можуть допомогти компаніям соціальних мереж, таким як Facebook, Reddit та Twitter, розробити нові методи боротьби з поширенням дезінформації в Інтернеті. Дослідження також можуть допомогти психологам і соціальним вченим краще зрозуміти поведінку, яка призводить до масового поширення дезінформації в соціальній мережі.
Як пояснив Алетрас за даними TechXplore, соціальні мережі перетворилися на один з основних способів, яким люди отримують новини. Міліони користувачів по всьому світу отримують новини через Facebook і Twitter щодня, але ці платформи також стали інструментами для поширення дезінформації в суспільстві. Алетрас зазначив, що надійне визначення певних тенденцій у поведінці користувачів може допомогти у боротьбі з дезінформацією. Як пояснив Алетрас, існує “кореляція між використанням нецікавої мови і поширенням ненадійного контенту, яке можна пояснити високою онлайн-політичною ворожістю”.
За словами Му, аналіз поведінки користувачів, які поширюють ненадійну інформацію, може допомогти соціальним мережам доповнити існуючі методи факт-чекінгу та моделювання дезінформації на рівні користувача. Як сказав Му за даними TechXplore:
“Дослідження та аналіз поведінки користувачів, які публікують контент з ненадійних джерел новин, можуть допомогти соціальним мережам запобігти поширенню фейкових новин на рівні користувача, доповнюючи існуючі методи факт-чекінгу, які працюють на рівні публікації чи джерела новин.”
Дослідження, проведене Алетрасом і Му, може бути прикладом використання штучного інтелекту для боротьби з дезінформацією, створеною штучним інтелектом. Останні місяці побачили зростання дезінформації щодо місцевої та національної політики, причому більша частина цього контенту генерується та поширюється алгоритмами штучного інтелекту. Глибокі нейронні мережі були використані для створення реалістичних фотографій та профілів фейкових акаунтів, які служать розповсюджувачами фейкових новин. Дослідження Алетраса і Му можуть допомогти компаніям соціальних мереж визначити, які акаунти є фейковими, створеними для поширення шкідливої пропаганди та дезінформації.
