заглушки Модель ИИ может выявлять распространителей дезинформации до того, как они начнут действовать - Unite.AI
Свяжитесь с нами:

Artificial Intelligence

Модель ИИ может выявлять распространителей дезинформации до того, как они начнут действовать

mm
обновленный on

Модель искусственного интеллекта, созданная исследователями из Университета Шеффилда, потенциально может определить, какие пользователи Twitter будут публиковать дезинформацию, прежде чем они это сделают. Если модель окажется надежной, ее можно будет использовать для дополнения существующих методов борьбы с дезинформацией в социальных сетях.

По данным TechXploreИсследование проводилось исследователями с факультета компьютерных наук Шеффилдского университета, в том числе докторами Никосом Алетрасом и Йидой Му. Исследование было опубликовано в журнале PeerJ, и в нем подробно описываются методы, используемые для прогнозирования того, может ли пользователь социальных сетей распространять дезинформацию, публикуя контент из ненадежных источников новостей.

Исследовательская группа собрала более 1 миллиона твитов от более чем 6000 пользователей Twitter, и все они общедоступны. Команда применила методы обработки естественного языка, чтобы подготовить данные для обучения модели ИИ. ИИ представлял собой модель бинарной классификации, помечающую пользователей как с вероятностью поделиться информацией из ненадежных источников, так и с вероятностью, что они не будут этого делать. После обучения модели на данных ей удалось достичь точности классификации примерно 79.7%.

При анализе результатов работы модели исследователи обнаружили, что пользователи, которые активно использовали невежливые выражения и постоянно писали в Твиттере о религии и политике, с большей вероятностью размещали информацию из ненадежных источников. В частности, широко использовались такие слова, как «либерал», «медиа», «правительство», «Израиль» и «ислам». Между тем, пользователи, которые размещали информацию из надежных источников, как правило, использовали такие слова, как «буду», «собираюсь», «хочу», «настроение», «взволнован» и «день рождения». Помимо этого, они обычно делились историями о своей личной жизни, такими как общение с друзьями, свои эмоции или информация о своих увлечениях.

Результаты исследования могут помочь социальным сетям, таким как Facebook, Reddit и Twitter, разработать новые способы борьбы с распространением дезинформации в Интернете. Исследование также может помочь психологам и социологам лучше понять поведение, которое приводит к безудержному распространению дезинформации в социальной сети.

Как объяснил Алетрас, согласно TechXplore, социальные сети превратились в один из основных способов получения новостей людьми. Миллионы пользователей по всему миру каждый день получают новости через Facebook и Twitter, но эти платформы также стали инструментами для распространения дезинформации в обществе. Далее Алетрас объяснил, что надежное выявление определенных тенденций в поведении пользователей может помочь в борьбе с дезинформацией. Как объяснил Алетрас, существует «корреляция между использованием невежливых выражений и распространением ненадежного контента, которую можно объяснить высокой политической враждебностью в Интернете».

По словам Му, анализ поведения пользователей, которые делятся недостоверной информацией, может помочь платформам социальных сетей, дополняя существующие методы проверки фактов и моделируя дезинформацию на уровне пользователя. Как сказал Му через TechXplore:

«Изучение и анализ поведения пользователей, делящихся контентом из ненадежных источников новостей, может помочь платформам социальных сетей предотвратить распространение фейковых новостей на уровне пользователей, дополняя существующие методы проверки фактов, которые работают на уровне публикации или источника новостей».

Исследование, проведенное Алетрасом и Мю, может быть примером использования ИИ для борьбы с дезинформацией, генерируемой ИИ. В последние несколько месяцев наблюдается всплеск дезинформации, связанной с местной и национальной политикой, при этом большая часть контента генерируется и распространяется с помощью алгоритмов ИИ. Глубокие нейронные сети использовались для создания реалистичных фотографий и профилей поддельных учетных записей, которые служат распространителями поддельных новостей. Исследование, которым занимаются Алетрас и Му, может помочь компаниям, работающим в социальных сетях, выяснить, какие учетные записи являются поддельными, а учетные записи ботов созданы с целью распространения вредоносной пропаганды и дезинформации.