Connect with us

Как ИИ формирует будущее демократического диалога

Искусственный интеллект

Как ИИ формирует будущее демократического диалога

mm

В сегодняшнем политически поляризованном мире найти общую почву на сложных социальных и политических вопросах становится все более сложной задачей. По мере того, как общества становятся более разнообразными, разногласия по таким важным вопросам, как изменение климата, иммиграция и экономическая политика, только усиливаются. Объединение людей для поиска консенсуса по сложным вопросам часто требует времени, ресурсов и равных условий, где каждый голос может быть услышан.

Недавние достижения в области искусственного интеллекта открыли новые возможности для технологий, помогающих в проведении сложных диалогов на спорных темах. Модели обработки естественного языка (NLP), работающие на основе ИИ, например, стали достаточно сложными, чтобы интерпретировать сложный язык и различать различия в настроениях и перспективах. Кроме того, системы ИИ разрабатываются с функциями, такими как анализ настроений в режиме реального времени, обнаружение предвзятости и адаптивная обратная связь. Эти возможности делают их особенно подходящими для помощи в проведении справедливых и сбалансированных обсуждений.

Этот потенциал привлек внимание исследователей Google DeepMind, которые изучают обещания ИИ в содействии гражданскому дискурсу. Вдохновленные идеями философа Юргена Хабермаса, они создали “машину Хабермаса” (МХ), инструмент для поддержки гражданского дискурса и помощи группам в открытии общих ценностей. Статья исследует вопрос: Может ли ИИ действительно помочь нам найти общую почву? Она также рассматривает, как машина Хабермаса (МХ) может содействовать демократическим обсуждениям.

Машина Хабермаса

Машина Хабермаса – это инструмент ИИ, предназначенный для анализа индивидуальных мнений и создания единого заявления группы. Машина работает как “посредничество в каукусе”. Участники начинают с обмена своими мыслями. Затем ИИ объединяет их в проект заявления. Далее участники рассматривают этот проект и предоставляют критику. ИИ использует этот ввод для генерации пересмотренного заявления, которое стремится получить более широкое согласие, отражая как большинственные, так и меньшинственные критические замечания.

Эта машина использует две специализированные модели LLM для этой задачи. Первая – это генеративная модель, создающая заявления, отражающие разнообразные взгляды группы. Вторая – это персонализированная модель вознаграждения, которая оценивает эти заявления на основе того, насколько вероятно, что каждый участник согласится с ними. Генеративная модель совершенствуется с помощью контролируемого уточнения, а модель вознаграждения совершенствуется итеративно на основе сигналов вознаграждения

Машина была протестирована с более чем 5 000 участниками из всей Великобритании. Некоторые присоединились через платформу краудсорсинга, в то время как другие были набраны фондом Sortition, некоммерческой организацией, организующей гражданские собрания. Участники были разделены на группы, и тестирование проходило в два этапа. Сначала машина суммировала коллективные мнения. Затем она посредничала между группами, чтобы помочь выявить общую почву.

Обещание ИИ в раскрытии общей почвы для демократического диалога

Исследование подчеркивает потенциал ИИ в нахождении общей почвы в демократическом диалоге. Одним из ключевых выводов было то, что обсуждения, проводимые с помощью ИИ, привели участников к сдвигу в сторону общих взглядов. В отличие от необсужденных обсуждений, которые часто укрепляли существующие убеждения, ИИ помог участникам пересмотреть свои позиции, приближая их к средней позиции. Эта способность поощрять выравнивание показывает, что ИИ может быть ценным инструментом для решения сложных и спорных вопросов.

Исследование также показало, что и участники, и независимые судьи оценивали заявления, сгенерированные ИИ, более благоприятно, чем те, которые были произведены человеческими посредниками. Они обнаружили, что заявления ИИ были более точными, более информативными и справедливыми. Важно отметить, что ИИ не просто усиливал большинственные мнения; он также придавал вес меньшинственным взглядам. Эта функция помогала предотвратить “тиранию большинства” и обеспечивала, чтобы голоса несогласных были услышаны. Включение этих несогласных взглядов имеет решающее значение, особенно в чувствительных дебатах, поскольку справедливое представительство помогает предотвратить недоразумения и способствует сбалансированным обсуждениям.

Реальные применения ИИ в делиберативной демократии

Последствия обсуждений, проводимых с помощью ИИ, значительны для реальных сценариев. Например, ИИ может улучшить обсуждения политики, разрешение конфликтов, переговоры по контрактам и гражданские собрания. Его способность содействовать сбалансированному диалогу делает его ценным инструментом для правительств, организаций и сообществ, стремящихся решить сложные вопросы, включающие разнообразных заинтересованных сторон.

Чтобы протестировать эффективность модели в практической обстановке, исследователи организовали виртуальное гражданское собрание с представительной выборкой жителей Великобритании. Это собрание было сосредоточено на спорных темах, таких как иммиграционная политика и действие по изменению климата. После обсуждений, проводимых с помощью ИИ, участники показали заметный сдвиг в сторону консенсуса, без какого-либо влияния предвзятости ИИ на их мнения. Эти выводы подчеркивают, как посредничество ИИ может потенциально направлять коллективное принятие решений по критическим социальным вопросам, минимизируя предвзятость.

Ограничения и этические соображения

Хотя посредничество ИИ показывает большое обещание, оно имеет заметные ограничения. Например, модель ИИ, использованная в этом исследовании, лишена возможностей проверки фактов, что означает, что она сильно зависит от качества ввода от участников. Кроме того, обсуждения, проводимые с помощью ИИ, требуют тщательного проектирования, чтобы избежать вредного или непродуктивного дискурса. Другим важным соображением является этическая роль ИИ в демократических процессах. Некоторые люди могут быть осторожны в использовании ИИ в политических дискуссиях, опасаясь, что алгоритмы могут непреднамеренно повлиять на результаты. Поэтому постоянный надзор и четкая этическая основа являются необходимыми для гарантии того, что ИИ используется способами, уважающими демократические ценности.

Итог

Исследователи в Google DeepMind подчеркнули, что ИИ имеет потенциал трансформировать демократический диалог. Они предлагают, что инструменты ИИ, такие как машина Хабермаса, могут помочь людям найти общую почву на сложных вопросах. Хотя ИИ может сделать разговоры более доступными и инклюзивными, важно использовать его ответственно, чтобы защитить демократические ценности.

Если ИИ будет разработан вдумчиво, он может сыграть решающую роль в содействии коллективному пониманию. Он может помочь решить насущные социальные проблемы, находя общую почву среди разнообразных перспектив. По мере того, как технология ИИ продвигается вперед, модели, такие как машина Хабермаса, могут стать важными для навигации по проблемам современной демократии, упрощая и расширяя процессы обсуждения для более широких и разнообразных групп.

Доктор Техсин Зия является доцентом в университете COMSATS в Исламабаде, имеющим степень PhD в области ИИ в Венском техническом университете, Австрия. Специализируясь в области искусственного интеллекта, машинного обучения, науки о данных и компьютерного зрения, он внес значительный вклад с публикациями в авторитетных научных журналах. Доктор Техсин также возглавлял различные промышленные проекты в качестве основного исследователя и служил консультантом по ИИ.