Connect with us

Как ИИ меняет подход к борьбе с теориями заговора

Искусственный интеллект

Как ИИ меняет подход к борьбе с теориями заговора

mm

Теории заговора всегда были частью человеческой истории, привлекая людей историями о секретных заговорах и скрытых истин. Но в сегодняшнем взаимосвязанном мире эти теории не являются просто безобидными сплетнями; они стали глобальной проблемой. С помощью социальных сетей ложные идеи, такие как “9/11 был внутренней работой” или “вакцины содержат микрочипы”, могут распространиться по всему миру всего за несколько минут. Эти нарративы могут создать недоверие, разделить сообщества и, в некоторых случаях, спровоцировать насилие.

Психологи много лет пытались понять, почему люди верят в эти теории и как их оспорить. Несмотря на их лучшие усилия, изменение этих убеждений оказалось трудным. Психологические теории предполагают, что эти идеи глубоко связаны с эмоциями и личной идентичностью людей, а не с логикой или фактами.

Однако исследователи недавно обнаружили, что ИИ может предложить выход. В отличие от традиционных методов, ИИ не только представляет факты – он ведет разговоры. Слушая и реагируя способами, которые кажутся личными и сочувствующими, ИИ имеет потенциал оспорить эти глубоко укоренившиеся убеждения. В этой статье мы рассмотрим эту новую способность ИИ и то, как он может изменить наш подход к теориям заговора.

Эксперимент с ИИ: новый подход

Недавно исследователи провели эксперимент, чтобы изучить, может ли генеративный ИИ справиться с проблемой теорий заговора. Их исследование, опубликованное в Science, использовало OpenAI’s GPT-4 Turbo, большую языковую модель (LLM), для вовлечения верующих в теории заговора в персонализированные, основанные на доказательствах разговоры. Участникам было предложено поделиться теорией заговора, в которую они верили, и представить доказательства. Затем ИИ вступил с ними в структурированный, трехраундовый диалог, представляя контраргументы, адаптированные к конкретной теории, в которую верил человек.

Результаты были впечатляющими. После разговора с ИИ вера в теорию заговора снизилась в среднем на 20%. Это не было просто быстрым сдвигом; изменение сохранилось не менее двух месяцев. Более того, люди стали менее склонны верить в другие теории заговора. Они также почувствовали себя более мотивированными, чтобы оспорить других, кто верил в подобные идеи.

Почему ИИ работает, где люди испытывают трудности

Есть несколько причин, почему ИИ выделяется в решении проблем теорий заговора, делая вещи, которые люди часто находят трудными для достижения. Одной из ключевых сильных сторон ИИ является персонализация. Вместо использования общих проверок фактов или широких объяснений ИИ принимает ответы, адаптированные к конкретным убеждениям и доказательствам каждого человека. Это делает разговоры более актуальными и убедительными.

Другой причиной, почему ИИ работает так хорошо, является его способность оставаться спокойным и нейтральным. В отличие от людей, ИИ может позволить себе подробные обсуждения без проявления раздражения или осуждения. Эта способность позволяет ему поддерживать сочувственный и беспристрастный тон, делая людей менее оборонительными и более открытыми для переоценки своих взглядов.

Точность ИИ является еще одним критическим фактором. Он был протестирован на сотнях утверждений, и 99,2% времени его ответы были точными. Это надежность строит доверие и делает людей более склонными пересмотреть свои убеждения.

Что еще более впечатляюще, так это то, как влияние ИИ выходит за рамки одной теории заговора. Он помогает людям переоценить свой подход к подобным идеям, делая их менее склонными верить в другие теории заговора. Некоторые даже чувствуют себя мотивированными, чтобы оспорить дезинформацию, когда они ее видят. Решая как конкретные убеждения, так и более широкий образ мышления, ИИ демонстрирует большой потенциал в борьбе с теориями заговора.

Последствия для общества

Мир борется с дезинформацией, и эти результаты приносят луч надежды. Нас долго учили, что теории заговора можно решить только с помощью фактов, но это исследование показывает, что даже глубоко укоренившиеся убеждения можно изменить с правильным подходом. Возможно, помочь людям выйти из цикла дезинформации, направляя их к более основательному взгляду на реальность.

Способность ИИ решать теории заговора может иметь влияние, выходящее за рамки отдельных разговоров. Он может помочь снизить социальные конфликты, вызванные теориями заговора – такие как страх перед вакцинами или ложные утверждения о фальсификации выборов – если использовать его правильно. Он также может сыграть роль в предотвращении распространения дезинформации в первую очередь. ИИ может решить ложные идеи до того, как они получат распространение, будучи частью образования, кампаний по охране здоровья и даже социальных сетей.

Этические соображения и риски

ИИ мощный, но с этой властью приходит ответственность. Те же инструменты, которые могут помочь опровергнуть теории заговора, также могут быть использованы во вред. Представьте, что ИИ используется для распространения ложной информации или манипулирования мнениями людей. Поэтому важно обеспечить, чтобы ИИ использовался этично. Должны быть четкие правила, надзор и прозрачность в том, как применяется ИИ, особенно в отношении чувствительных тем.

Успех ИИ также зависит от качества его обучающих данных и алгоритмов. Если данные предвзяты, это может привести к неточным или несправедливым ответам, нанося ущерб авторитету и эффективности ИИ. Регулярные обновления, постоянные исследования и независимые аудиты будут иметь решающее значение для выявления и исправления этих проблем, обеспечивая, чтобы технология использовалась ответственно и этично.

Более широкий сдвиг в роли ИИ

Это исследование подчеркивает появляющийся сдвиг в том, как ИИ может принести пользу обществу. Хотя генеративный ИИ часто критикуется за усиление дезинформации, это исследование показывает, что он также может быть мощным инструментом для противодействия ей. Демонстрируя способность ИИ решать сложные проблемы, такие как теории заговора, исследование меняет стандартный нарратив, демонстрируя ИИ как решение некоторых проблем, за которые он часто обвиняется.

Это напоминание о том, что технология нейтральна – ни хороша, ни плоха. Ее влияние зависит полностью от того, как мы решаем использовать ее. Сосредоточившись на этических и ответственных применениях, мы можем использовать потенциал ИИ для стимулирования положительных изменений и решения некоторых из наиболее насущных проблем общества.

Основной вывод

ИИ предлагает перспективный новый способ борьбы с теориями заговора, вовлекая людей в персонализированные, сочувствующие разговоры, которые поощряют критическое мышление и снижают веру в дезинформацию. В отличие от традиционных методов, нейтральный тон ИИ, адаптированные ответы и высокая точность эффективно оспаривают глубоко укоренившиеся убеждения и способствуют более широкому сопротивлению теориям заговора. Однако его успех зависит от этического использования, прозрачности и постоянного надзора. Это исследование подчеркивает потенциал ИИ для противодействия дезинформации и содействия социальной гармонии, когда он применяется ответственно.

Доктор Техсин Зия является доцентом в университете COMSATS в Исламабаде, имеющим степень PhD в области ИИ в Венском техническом университете, Австрия. Специализируясь в области искусственного интеллекта, машинного обучения, науки о данных и компьютерного зрения, он внес значительный вклад с публикациями в авторитетных научных журналах. Доктор Техсин также возглавлял различные промышленные проекты в качестве основного исследователя и служил консультантом по ИИ.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.