Connect with us

Инженеры ИИ разрабатывают метод, позволяющий обнаружить намерения тех, кто распространяет дезинформацию

Искусственный интеллект

Инженеры ИИ разрабатывают метод, позволяющий обнаружить намерения тех, кто распространяет дезинформацию

mm

Борьба с дезинформацией в цифровую эпоху – это сложная проблема. Не только дезинформация должна быть выявлена, помечена и исправлена, но также должно быть различимо намерение тех, кто несет ответственность за заявление. Человек может непреднамеренно распространять дезинформацию или просто давать свое мнение по вопросу, даже если оно позже сообщается как факт. Недавно команда исследователей и инженеров ИИ в Дартмуте создала основу, которая может быть использована для получения мнения из отчетов “фейковых новостей”.

Как сообщает ScienceDaily, исследование команды Дартмута было недавно опубликовано в Журнале экспериментального и теоретического искусственного интеллекта. Хотя предыдущие исследования пытались выявить фейковые новости и бороться с обманом, это, возможно, первое исследование, целью которого было выявление намерения говорящего в новостной статье. Хотя настоящая история может быть искажена в различные обманчивые формы, важно различить, было ли намерение обмануть. Исследовательская команда утверждает, что намерение имеет значение при рассмотрении дезинформации, поскольку обман возможен только в случае намерения обмануть. Если человек не осознавал, что он распространяет дезинформацию, или если он просто давал свое мнение, то не может быть обмана.

Юджин Сантос-младший, профессор инженерии в школе инженерии Тейера в Дартмуте, объяснил ScienceDaily, почему их модель пытается различить обманчивое намерение:

“Обманчивое намерение обмануть слушателей намеренно представляет гораздо большую угрозу, чем непреднамеренные ошибки. Насколько нам известно, наш алгоритм – единственный метод, который обнаруживает обман и одновременно различает злонамеренные действия и добронамеренные действия.”

Чтобы построить свою модель, исследовательская команда проанализировала особенности обманчивого рассуждения. Результатом стал алгоритм, который может различить намерение обмануть от других форм коммуникации, сосредоточив внимание на несоответствиях между прошлыми аргументами человека и его текущими заявлениями. Модель, разработанная исследовательской командой, требует больших объемов данных, которые могут быть использованы для измерения того, как человек отклоняется от прошлых аргументов. Тренировочные данные, которые команда использовала для обучения своей модели, состояли из данных, полученных из опроса мнений по спорным темам. Более 100 человек дали свое мнение по этим спорным вопросам. Данные также были получены из обзоров 20 разных отелей, состоящих из 400 фиктивных обзоров и 800 реальных обзоров.

По словам Санто, основа, разработанная исследователями, может быть усовершенствована и применена новостными организациями и читателями, чтобы позволить им анализировать содержание статей “фейковых новостей”. Читатели могут изучать статьи на наличие мнений и определять для себя, был ли использован логический аргумент. Санто также сказал, что команда хочет изучить влияние дезинформации и эффекты, которые она имеет.

Популярная культура часто изображает невербальное поведение, такое как выражения лица, как индикаторы того, что кто-то лжет, но авторы исследования отмечают, что эти поведенческие намеки не всегда являются надежными индикаторами лжи. Декинг Ли, соавтор статьи, объяснил, что их исследование показало, что модели, основанные на намерении рассуждения, являются лучшими индикаторами лжи, чем поведенческие и вербальные различия. Ли объяснил, что модели намерения рассуждения “лучше различают преднамеренные лжи от других типов искажения информации”.

Работа исследователей Дартмута не является единственным недавним достижением в борьбе с дезинформацией с помощью ИИ. Новостные статьи с кликбейт-заголовками часто маскируют дезинформацию. Например, они часто подразумевают, что произошло одно событие, когда на самом деле произошло другое.

Как сообщает AINews, команда исследователей из Университета штата Аризона и Университета штата Пенсильвания сотрудничала, чтобы создать ИИ, который может обнаружить кликбейт. Исследователи попросили людей написать свои собственные кликбейт-заголовки и также написали программу для генерации кликбейт-заголовков. Оба типа заголовков затем были использованы для обучения модели, которая могла эффективно обнаружить кликбейт-заголовки, независимо от того, были ли они написаны машинами или людьми.

По словам исследователей, их алгоритм был примерно на 14,5% более точным в обнаружении кликбейт-заголовков, чем другие ИИ были в прошлом. Руководитель проекта и ассоциированный профессор Колледжа информационных наук и технологий Университета штата Пенсильвания, Донгвон Ли, объяснил, как их эксперимент демонстрирует полезность генерации данных с помощью ИИ и их последующего использования в обучающем потоке.

“Этот результат довольно интересен, поскольку мы успешно продемонстрировали, что машинно-генерируемые кликбейт-тренировочные данные могут быть использованы в обучающем потоке для обучения широкого спектра моделей машинного обучения с улучшенной производительностью”, – объяснил Ли.

Блогер и программист с специализацией в Machine Learning и Deep Learning темах. Daniel надеется помочь другим использовать силу ИИ для социального блага.