Свяжитесь с нами:

Artificial Intelligence

Инструменты AI для браузера нацелены на распознавание дипфейков и других поддельных медиа

mm
обновленный on

Усилия технологических компаний по борьбе с дезинформацией и фейковым контентом в последнее время набирают обороты, поскольку сложные технологии создания фейкового контента, такие как DeepFakes, становятся проще в использовании и совершенствуются. Одной из будущих попыток помочь людям обнаруживать дипфейки и бороться с ними является RealityDefender, созданный Фонд ИИ, которая взяла на себя обязательство разработать этических агентов и помощников ИИ, которых пользователи могут обучать выполнению различных задач.

Самый заметный проект AI Foundation — это платформа, которая позволяет людям создавать своих собственных цифровых персонажей, похожих на них, и представлять их в виртуальных тусовочных пространствах. Фонд ИИ находится под надзором Глобального совета по ИИ, и в рамках своего мандата они должны предвидеть возможные негативные последствия платформ ИИ, а затем пытаться опередить эти проблемы. Как сообщает VentureBeat, Один из инструментов, созданных AI Foundation для помощи в обнаружении дипфейков, получил название Reality Defender. Reality Defender — это инструмент, который человек может использовать в своем веб-браузере (проверьте это), который будет анализировать видео, изображения и другие типы мультимедиа, чтобы обнаружить признаки того, что медиа были подделаны или каким-либо образом изменены. Есть надежда, что этот инструмент поможет противодействовать растущему потоку дипфейков в Интернете, который, по некоторым оценкам, примерно удвоился за последние шесть месяцев.

Защитник реальности работает, используя различные алгоритмы на основе искусственного интеллекта, которые могут обнаруживать подсказки, предполагающие, что изображение или видео могли быть подделаны. Модели ИИ обнаруживают тонкие признаки мошенничества и манипуляций, а ложные срабатывания, которые обнаруживает модель, помечаются пользователями инструмента как неверные. Затем данные используются для переобучения модели. Компании ИИ, которые создают не вводящие в заблуждение дипфейки, помечают свой контент тегом «честный ИИ» или водяным знаком, который позволяет людям легко идентифицировать подделки, созданные ИИ.

Reality Defender — это лишь один из набора инструментов и целой платформы ответственности за ИИ, которую AI Foundation пытается создать. AI Foundation занимается созданием Guardian AI, платформы ответственности, основанной на принципе, согласно которому люди должны иметь доступ к личным агентам ИИ, которые работают на них и могут помочь защитить их от эксплуатации злоумышленниками. По сути, AI Foundation стремится расширить охват ИИ в обществе, предоставив его большему количеству людей, а также защититься от рисков, связанных с ИИ.

Reality Defender — не единственный новый продукт на основе искусственного интеллекта, направленный на сокращение дезинформации о Соединенных Штатах. Похожий продукт под названием SurfSafe был создан двумя студентами Калифорнийского университета в Беркли, Роханом Фадте и Эшем Бхатом. Согласно The Verge, SurfSafe работает, позволяя своим пользователям щелкнуть фрагмент медиафайла, который им интересен, и программа выполнит обратный поиск изображения и попытается найти похожий контент из различных надежных источников в Интернете, помечая изображения, которые, как известно, являются подделал.

Неясно, насколько эффективными окажутся эти решения в долгосрочной перспективе. Профессор Дартмутского колледжа и судебно-медицинский эксперт Хэни Фарид цитирует The Verge заявив, что он «крайне скептически» относится к тому, что системы планирования, такие как Reality Defender, будут работать в значимом качестве. Фарид объяснил, что одна из ключевых проблем при обнаружении фейкового контента заключается в том, что медиа не являются полностью фальшивыми или настоящими. Фарид объяснил:

«Существует континуум; невероятно сложный круг вопросов, с которыми приходится иметь дело. Некоторые изменения бессмысленны, а некоторые коренным образом меняют природу изображения. Делать вид, что мы можем обучить ИИ замечать разницу, невероятно наивно. А делать вид, что мы можем использовать краудсорсинг, тем более».

Кроме того, трудно включить элементы краудсорсинга, такие как пометка ложных срабатываний, потому что люди, как правило, довольно плохо распознают поддельные изображения. Люди часто допускают ошибки и пропускают тонкие детали, которые делают изображение фальшивым. Также неясно, как бороться с недобросовестными актерами, которые тролят, когда помечают контент.

Вполне вероятно, что для достижения максимальной эффективности средства обнаружения фейков должны сочетаться с усилиями по повышению цифровой грамотности, которые учат людей рассуждать о контенте, с которым они взаимодействуют в Интернете.