заглушки Інженери ШІ розробили метод, який може виявити наміри тих, хто поширює дезінформацію - Unite.AI
Зв'язатися з нами

Штучний Інтелект

Інженери ШІ розробили метод, який може виявити наміри тих, хто поширює дезінформацію

mm
оновлений on

Боротьба з дезінформацією в епоху цифрових технологій є складною проблемою. Неправдиву інформацію потрібно не лише ідентифікувати, позначати та виправляти, але й розрізняти наміри осіб, відповідальних за подання заяви. Людина може несвідомо поширювати дезінформацію або просто висловлювати свою думку з проблеми, навіть якщо пізніше це буде повідомлено як факт. Нещодавно команда дослідників та інженерів штучного інтелекту в Дартмуті створила структуру, яка може бути використана для отримання думки з повідомлень про «фейкові новини».

Як повідомляє ScienceDaily, дослідження Дартмутської команди нещодавно було опубліковано в Journal of Experimental & Theoretical Artificial Intelligence. У той час як попередні дослідження намагалися виявити фейкові новини та боротися з обманом, це може бути перше дослідження, яке мало на меті визначити намір оратора в новині. Хоча правдива історія може бути перекручена в різні оманливі форми, важливо розрізняти, чи був обман навмисним чи ні. Дослідницька група стверджує, що намір має значення при розгляді дезінформації, оскільки обман можливий лише за наявності наміру ввести в оману. Якщо особа не усвідомлювала, що поширює дезінформацію, або якщо вона просто висловлювала свою думку, обману бути не може.

Юджин Сантос молодший, професор інженерії Дартмутської школи інженерії Теєра, пояснив ScienceDaily чому їх модель намагається розрізнити оманливі наміри:

«Оманливий намір навмисно ввести слухачів в оману становить набагато більшу загрозу, ніж ненавмисні помилки. Наскільки нам відомо, наш алгоритм є єдиним методом, який виявляє обман і водночас відрізняє зловмисні дії від доброякісних».

Щоб побудувати свою модель, дослідницька група проаналізувала особливості оманливих міркувань. Отриманий алгоритм може відрізнити намір обману від інших форм спілкування, зосередившись на розбіжностях між минулими аргументами людини та її поточними заявами. Модель, створена дослідницькою групою, потребує великої кількості даних, які можна використовувати для вимірювання того, як людина відхиляється від минулих аргументів. Навчальні дані, які команда використовувала для навчання своєї моделі, складалися з даних, взятих із опитування думок щодо суперечливих тем. Понад 100 осіб висловили свою думку щодо цих дискусійних питань. Дані також були взяті з оглядів 20 різних готелів, які складалися з 400 вигаданих відгуків і 800 реальних відгуків.

За словами Санто, структуру, розроблену дослідниками, можна вдосконалити та застосувати новинними організаціями та читачами, щоб вони могли аналізувати зміст статей «фейкових новин». Читачі могли перевірити статті на наявність думок і самостійно визначити, чи використано логічний аргумент. Сантос також сказав, що команда хоче вивчити вплив дезінформації та хвилі, які вона має.

Популярна культура часто зображує невербальну поведінку, як-от вираз обличчя, як показник того, що хтось бреше, але автори дослідження відзначають, що ці поведінкові натяки не завжди є надійними показниками брехні. Децін Лі, співавтор статті, пояснив, що їхнє дослідження показало, що моделі, засновані на намірі міркування, є кращими показниками брехні, ніж поведінкові та вербальні відмінності. Лі пояснив, що моделі міркування «краще відрізняють навмисну ​​брехню від інших типів спотворення інформації».

Робота дослідників з Дартмута — не єдиний останній прогрес у боротьбі з дезінформацією за допомогою ШІ. Статті новин із заголовками-приманками часто маскують дезінформацію. Наприклад, вони часто мають на увазі те, що сталося одне, тоді як насправді відбулася інша подія.

Як повідомляє AINews, команда дослідників з Університету штату Арізона та Університету штату Пенсільванія співпрацювали, щоб створити штучний інтелект, який міг би виявляти клікбейт. Дослідники попросили людей написати власні клікбейт-заголовки, а також написали програму для створення клікбейт-заголовків. Потім обидві форми заголовків використовувалися для навчання моделі, яка могла б ефективно виявляти заголовки-приманки, незалежно від того, чи були вони написані машинами чи людьми.

За словами дослідників, їхній алгоритм був приблизно на 14.5% точнішим, коли справа дійшла до виявлення клікбейтів, ніж інші ШІ в минулому. Провідний дослідник проекту та доцент Коледжу інформаційних наук і технологій Пенсільванського університету Донгвон Лі пояснив, як їхній експеримент демонструє корисність генерування даних за допомогою штучного інтелекту та передачі їх назад у навчальний конвеєр.

«Цей результат досить цікавий, оскільки ми успішно продемонстрували, що згенеровані машиною навчальні дані клікбейтів можна повертати в навчальний конвеєр для навчання широкого спектру моделей машинного навчання для підвищення продуктивності», — пояснив Лі.

Блогер і програміст зі спеціальностями в машинне навчання та Глибоке навчання теми. Деніел сподівається допомогти іншим використовувати силу ШІ для суспільного блага.