Свяжитесь с нами:

Инструменты AI для браузера нацелены на распознавание дипфейков и других поддельных медиа

Искусственный интеллект

Инструменты AI для браузера нацелены на распознавание дипфейков и других поддельных медиа

mm

Усилия технологических компаний по борьбе с дезинформацией и фейковым контентом в последнее время набирают обороты, поскольку сложные технологии создания фейкового контента, такие как DeepFakes, становятся проще в использовании и совершенствуются. Одной из будущих попыток помочь людям обнаруживать дипфейки и бороться с ними является RealityDefender, созданный Фонд ИИ, которая взяла на себя обязательство разработать этических агентов и помощников ИИ, которых пользователи могут обучать выполнению различных задач.

Самый заметный проект AI Foundation — это платформа, которая позволяет людям создавать своих собственных цифровых персонажей, похожих на них, и представлять их в виртуальных тусовочных пространствах. Фонд ИИ находится под надзором Глобального совета по ИИ, и в рамках своего мандата они должны предвидеть возможные негативные последствия платформ ИИ, а затем пытаться опередить эти проблемы. Как сообщает VentureBeat, Один из инструментов, созданных AI Foundation для помощи в обнаружении дипфейков, получил название Reality Defender. Reality Defender — это инструмент, который человек может использовать в своем веб-браузере (проверьте это), который будет анализировать видео, изображения и другие типы мультимедиа, чтобы обнаружить признаки того, что медиа были подделаны или каким-либо образом изменены. Есть надежда, что этот инструмент поможет противодействовать растущему потоку дипфейков в Интернете, который, по некоторым оценкам, примерно удвоился за последние шесть месяцев.

Защитник реальности работает, используя различные алгоритмы на основе искусственного интеллекта, которые могут обнаруживать подсказки, предполагающие, что изображение или видео могли быть подделаны. Модели ИИ обнаруживают тонкие признаки мошенничества и манипуляций, а ложные срабатывания, которые обнаруживает модель, помечаются пользователями инструмента как неверные. Затем данные используются для переобучения модели. Компании ИИ, которые создают не вводящие в заблуждение дипфейки, помечают свой контент тегом «честный ИИ» или водяным знаком, который позволяет людям легко идентифицировать подделки, созданные ИИ.

Reality Defender — это лишь один из набора инструментов и целой платформы ответственности за ИИ, которую AI Foundation пытается создать. AI Foundation занимается созданием Guardian AI, платформы ответственности, основанной на принципе, согласно которому люди должны иметь доступ к личным агентам ИИ, которые работают на них и могут помочь защитить их от эксплуатации злоумышленниками. По сути, AI Foundation стремится расширить охват ИИ в обществе, предоставив его большему количеству людей, а также защититься от рисков, связанных с ИИ.

Reality Defender — не единственный новый продукт на основе искусственного интеллекта, направленный на сокращение дезинформации о Соединенных Штатах. Похожий продукт под названием SurfSafe был создан двумя студентами Калифорнийского университета в Беркли, Роханом Фадте и Эшем Бхатом. Согласно The Verge, SurfSafe работает, позволяя своим пользователям щелкнуть фрагмент медиафайла, который им интересен, и программа выполнит обратный поиск изображения и попытается найти похожий контент из различных надежных источников в Интернете, помечая изображения, которые, как известно, являются подделал.

Неясно, насколько эффективными окажутся эти решения в долгосрочной перспективе. Профессор Дартмутского колледжа и судебно-медицинский эксперт Хэни Фарид цитирует The Verge заявив, что он «крайне скептически» относится к тому, что системы планирования, такие как Reality Defender, будут работать в значимом качестве. Фарид объяснил, что одна из ключевых проблем при обнаружении фейкового контента заключается в том, что медиа не являются полностью фальшивыми или настоящими. Фарид объяснил:

«Существует континуум; невероятно сложный круг вопросов, с которыми приходится иметь дело. Некоторые изменения бессмысленны, а некоторые коренным образом меняют природу изображения. Делать вид, что мы можем обучить ИИ замечать разницу, невероятно наивно. А делать вид, что мы можем использовать краудсорсинг, тем более».

Кроме того, сложно включить элементы краудсорсинга, такие как отметка ложных срабатываний, поскольку люди, как правило, довольно плохо распознают поддельные изображения. Люди часто ошибаются и упускают тонкие детали, которые указывают на поддельность изображения. Также неясно, как бороться с недобросовестными троллями, помечающими контент.

Вполне вероятно, что для достижения максимальной эффективности средства обнаружения фейков должны сочетаться с усилиями по повышению цифровой грамотности, которые учат людей рассуждать о контенте, с которым они взаимодействуют в Интернете.

Блогер и программист со специализацией в Машинное обучение и Глубокое обучение темы. Дэниел надеется помочь другим использовать возможности ИИ на благо общества.