Connect with us

Как угрозы, основанные на ИИ и глубоких подделках, угрожают честности выборов — и что с этим делать

Лидеры мнений

Как угрозы, основанные на ИИ и глубоких подделках, угрожают честности выборов — и что с этим делать

mm

Рекламные ролики кампаний уже могут быть немного запутанными и противоречивыми.

Теперь представьте, что вы нацелены в рекламный ролик кампании, в котором кандидат высказывает сильные позиции, которые влияют на ваш голос — и реклама даже не реальна. Это глубокая подделка.

Это не какой-то гипотетический сценарий из будущего; глубокие подделки — реальная, повсеместная проблема. Мы уже видели заголовки, связанные с генерированными ИИ “одобрениями”, и то, что мы слышали, только царапает поверхность.

Когда мы приближаемся к президентским выборам в США в 2024 году, мы вступаем в неизведанную территорию в области кибербезопасности и целостности информации. Я работал на пересечении кибербезопасности и ИИ с тех пор, как эти концепции были еще в зачаточном состоянии, и я никогда не видел ничего подобного тому, что происходит сейчас.

Быстрая эволюция искусственного интеллекта — в частности, генеративного ИИ и, конечно же, легкости создания реалистичных глубоких подделок — преобразила ландшафт угроз выборов. Эта новая реальность требует изменения основных предположений относительно безопасности выборов и образования избирателей.

Вооруженный ИИ

Вам не нужно принимать моего личного опыта как доказательство; есть много доказательств того, что кибербезопасные проблемы, с которыми мы сталкиваемся сегодня, развиваются с беспрецедентной скоростью. За короткий период времени мы стали свидетелями драматического преобразования возможностей и методов потенциальных участников угроз. Эта эволюция отражает ускоренное развитие, которое мы видели в технологиях ИИ, но с тревожным поворотом.

Пример:

  • Быстрая вооружение уязвимостей. Сегодня атакующие могут быстро использовать только что обнаруженные уязвимости, часто быстрее, чем можно разработать и развернуть патчи. Инструменты ИИ еще больше ускоряют этот процесс, сокращая время между обнаружением уязвимости и ее использованием.
  • Расширенная поверхность атаки. Широкое внедрение облачных технологий существенно расширило потенциальную поверхность атаки. Распределенная инфраструктура и модель совместной ответственности между облачными провайдерами и пользователями создают новые векторы для эксплуатации, если они не будут должным образом управляемы.
  • Устаревшие традиционные меры безопасности. Наследственные инструменты безопасности, такие как брандмауэры и антивирусное программное обеспечение, с трудом справляются с этими эволюционирующими угрозами, особенно когда речь идет о обнаружении и смягчении содержимого, сгенерированного ИИ.

Посмотрите, кто говорит

В этом новом ландшафте угроз глубокие подделки представляют собой особенно коварный вызов для честности выборов. Недавние исследования от Ivanti придают некоторые цифры угрозе: более половины офисных работников (54%) не знают, что передовая ИИ может имитировать голос любого человека. Это отсутствие осведомленности среди потенциальных избирателей очень тревожно, когда мы приближаемся к критическому циклу выборов.

Ставки очень высоки.

Современность сегодняшних технологий глубоких подделок позволяет участникам угроз, как иностранным, так и внутренним, создавать убедительные фальшивые аудио-, видео- и текстовые материалы с минимальными усилиями. Простая текстовая подсказка теперь может сгенерировать глубокую подделку, которая все труднее отличить от подлинного контента. Эта возможность имеет серьезные последствия для распространения дезинформации и манипулирования общественным мнением.

Проблемы атрибуции и смягчения

Атрибуция — одна из наиболее значительных проблем, с которыми мы сталкиваемся при ИИ-генерируемом вмешательстве в выборы. Хотя мы исторически ассоциировали вмешательство в выборы с иностранными государственными участниками, демократизация инструментов ИИ означает, что внутренние группы, движимые различными идеологическими мотивами, теперь могут использовать эти технологии для влияния на выборы.

Эта диффузия потенциальных участников угроз осложняет нашу способность выявить и смягчить источники дезинформации. Это также подчеркивает необходимость многофакторного подхода к безопасности выборов, который выходит за рамки традиционных мер кибербезопасности.

Координированные усилия по поддержанию честности выборов

Решение проблемы ИИ-управляемых глубоких подделок на выборах потребует координированных усилий по нескольким секторам. Вот ключевые области, на которых нам нужно сосредоточить наши усилия:

  • Безопасность сдвига влево для систем ИИ. Нам нужно применить принципы “безопасности сдвига влево” к разработке самих систем ИИ. Это означает включение соображений безопасности с ранних стадий разработки моделей ИИ, включая соображения потенциального неправильного использования в вмешательстве в выборы.
  • Принудительное обеспечение безопасных конфигураций. Системы и платформы ИИ, которые потенциально могут быть использованы для генерации глубоких подделок, должны иметь надежные, безопасные конфигурации по умолчанию. Это включает сильные меры аутентификации и ограничения на типы контента, который можно сгенерировать.
  • Обеспечение безопасности цепочки поставок ИИ. Как и мы фокусируемся на обеспечении безопасности цепочки поставок программного обеспечения, нам нужно расширить это бдительность на цепочку поставок ИИ. Это включает тщательный анализ наборов данных, используемых для обучения моделей ИИ, и алгоритмов, используемых в генеративных системах ИИ.
  • Улучшенные возможности обнаружения. Нам нужно инвестировать в и разрабатывать передовые инструменты обнаружения, которые могут выявить контент, сгенерированный ИИ, особенно в контексте информации, связанной с выборами. Это, вероятно, будет включать использование самого ИИ для борьбы с ИИ-генерируемой дезинформацией.
  • Образование и осведомленность избирателей. Критически важным компонентом нашей защиты от глубоких подделок является осведомленная избирательная аудитория. Нам нужно комплексные образовательные программы, чтобы помочь избирателям понять существование и потенциальное влияние контента, сгенерированного ИИ, и предоставить им инструменты для критической оценки информации, с которой они сталкиваются.
  • Межсекторальное сотрудничество. Сектор технологий, особенно ИТ- и кибербезопасные компании, должны тесно работать с государственными агентствами, избирательными чиновниками и медиа-организациями, чтобы создать единный фронт против ИИ-управляемого вмешательства в выборы.

Что сейчас, и что дальше

Когда мы реализуем эти стратегии, важно, чтобы мы непрерывно измеряли их эффективность. Это потребует новых метрик и инструментов мониторинга, специально разработанных для отслеживания влияния контента, сгенерированного ИИ, на дискурс выборов и поведение избирателей.

Нам также следует быть готовыми быстро адаптировать наши стратегии. Область ИИ развивается с головокружительной скоростью, и наши оборонные меры должны развиваться с той же скоростью. Это может включать использование самого ИИ для создания более прочных и адаптируемых мер безопасности.

Проблема ИИ-управляемых глубоких подделок на выборах представляет собой новую главу в кибербезопасности и целостности информации. Чтобы решить эту проблему, нам нужно мыслить за пределами традиционных парадигм безопасности и способствовать сотрудничеству между секторами и дисциплинами. Цель: использовать силу ИИ для пользы демократических процессов, смягчая его потенциальный вред. Это не только технический вызов, но и социальный, который потребует постоянной бдительности, адаптации и сотрудничества.

Целостность наших выборов — и, следовательно, здоровье нашей демократии — зависит от нашей способности решить эту проблему напрямую. Это ответственность, которая лежит на всех нас: технологах, политиках и гражданах.

Доктор Сринивас Муккамала является главным офицером по продуктам в Ivanti. Он был основателем и генеральным директором RiskSense до тех пор, пока Ivanti не приобрела компанию в августе 2021 года.

Он присоединился к Ivanti в качестве руководителя по решениям безопасности Ivanti и сыграл ключевую роль в интеграции портфеля и команды RiskSense в стратегию Ivanti. Он является признанным авторитетом в сообществах искусственного интеллекта (ИИ) и нейронных сетей и был частью мозгового центра, который сотрудничал с Министерством обороны США по применению этих концепций к проблемам кибербезопасности.

Доктор Муккамала отвечает за управление продуктами всех решений Ivanti и будет продолжать стимулировать инновации в интегрированных решениях во всех столпах компании: ITSM, Security и UEM.​

Доктор Муккамала также был ведущим исследователем CACTUS (Компьютерный анализ кибертерроризма против США) и владеет патентом на Интеллектуальные агенты для распределенной системы обнаружения вторжений и метода ее применения.​
Доктор Муккамала имеет степень PhD и магистра наук в области компьютерных наук в Нью-Мексиканском технологическом институте.