заглушки Что такое дипфейки? - Unite.ИИ
Свяжитесь с нами:

AI 101

Что такое дипфейки?

mm
обновленный on

Поскольку дипфейки становятся все проще в создании и более распространенными, им уделяется все больше внимания. Дипфейки стали предметом дискуссий, касающихся этики ИИ, дезинформации, открытости информации и Интернета, а также регулирования. Полезно быть информированным о дипфейках и иметь интуитивное понимание того, что такое дипфейки. В этой статье мы разъясним определение дипфейка, рассмотрим варианты его использования, обсудим, как можно обнаружить дипфейки, а также рассмотрим последствия дипфейков для общества.

Что такое дипфейки?

Прежде чем перейти к дальнейшему обсуждению дипфейков, было бы полезно уделить немного времени и уточнить что такое «дипфейки» на самом деле. Существует значительная путаница в отношении термина «дипфейк», и часто этот термин неправильно применяется к любому фальсифицированному медиа, независимо от того, является ли он подлинным дипфейком. Чтобы квалифицироваться как дипфейк, рассматриваемые поддельные медиа должны быть созданы с помощью системы машинного обучения, в частности, глубокой нейронной сети.

Ключевым ингредиентом дипфейков является машинное обучение. Машинное обучение позволило компьютерам относительно быстро и легко автоматически генерировать видео и аудио. Глубокие нейронные сети обучаются на кадрах реального человека, чтобы сеть могла узнать, как люди выглядят и двигаются в заданных условиях окружающей среды. Обученная сеть затем используется на изображениях другого человека и дополняется дополнительными методами компьютерной графики, чтобы объединить нового человека с исходными кадрами. Алгоритм кодировщика используется для определения сходства между исходным лицом и целевым лицом. После того как общие черты лиц выделены, используется второй алгоритм искусственного интеллекта, называемый декодером. Декодер исследует закодированные (сжатые) изображения и восстанавливает их на основе особенностей исходных изображений. Используются два декодера: один на лице исходного объекта, а второй на лице целевого человека. Чтобы произвести замену, декодер, обученный на изображениях человека X, получает изображения человека Y. В результате лицо человека Y восстанавливается на основе выражения лица и ориентации человека X.

В настоящее время для создания дипфейка по-прежнему требуется довольно много времени. Создателю подделки приходится долго вручную корректировать параметры модели, так как неоптимальные параметры приведут к заметным несовершенствам и сбоям изображения, выдающим истинную природу подделки.

Хотя часто предполагается, что большинство дипфейков создаются с помощью нейронной сети, называемой генеративно-состязательная сеть (GAN), многие (возможно, большинство) дипфейков, созданных в наши дни, не полагаются на GAN. По словам Сивей Лю из SUNY Buffalo, хотя GAN действительно играли заметную роль в создании ранних дипфейков, большинство видео дипфейков создаются с помощью альтернативных методов.

Для обучения GAN требуется непропорционально большой объем обучающих данных, а для GAN часто требуется гораздо больше времени для рендеринга изображения по сравнению с другими методами генерации изображений. GAN также лучше подходят для создания статических изображений, чем видео, поскольку GAN трудно поддерживать согласованность от кадра к кадру. Гораздо чаще для создания дипфейков используется кодировщик и несколько декодеров.

Для чего используются дипфейки?

Многие дипфейки, найденные в сети, носят порнографический характер. Согласно исследованию, проведенному Deeptrace, фирмой, занимающейся искусственным интеллектом, из выборки из примерно 15,000 2019 дипфейковых видео, снятых в сентябре 95 года, примерно XNUMX% из них носили порнографический характер. Тревожным следствием этого факта является то, что по мере того, как технология становится проще в использовании, количество случаев поддельного порно из мести может увеличиться.

Однако не все дипфейки носят порнографический характер. Есть более законные способы использования технологии дипфейков. Технология аудиодипфейка может помочь людям транслировать свои обычные голоса после того, как они были повреждены или потеряны из-за болезни или травмы. Дипфейки также можно использовать для сокрытия лиц людей, находящихся в деликатных, потенциально опасных ситуациях, при этом позволяя читать их губы и выражения. Технология Deepfake потенциально может быть использована для улучшения дублирования фильмов на иностранных языках, помощи в ремонте старых и поврежденных носителей и даже для создания новых стилей искусства.

Дипфейки без видео

Хотя большинство людей думают о поддельных видео, когда слышат термин «дипфейк», фальшивые видео ни в коем случае не являются единственным видом фальшивых медиа, созданных с использованием технологии дипфейков. Технология Deepfake также используется для создания фото- и аудиофейков. Как упоминалось ранее, GAN часто используются для создания поддельных изображений. Считается, что было много случаев фальшивых профилей LinkedIn и Facebook, изображения профилей которых были сгенерированы с помощью алгоритмов дипфейка.

Также можно создавать аудио дипфейки. Глубокие нейронные сети обучены создавать голосовые клоны/голосовые скины разных людей, в том числе знаменитостей и политиков. Один известный пример аудио Deepfake — это когда компания AI Dessa использовал модель ИИ, поддерживается алгоритмами, не связанными с искусственным интеллектом, для воссоздания голоса ведущего подкаста Джо Рогана.

Как распознать дипфейки

По мере того как дипфейки становятся все более изощренными, отличить их от подлинных медиа будет все сложнее и сложнее. В настоящее время существуют несколько характерных признаков люди могут искать, чтобы убедиться, что видео потенциально является дипфейком, например, плохая синхронизация губ, неестественные движения, мерцание по краю лица и деформация мелких деталей, таких как волосы, зубы или отражения. Другими потенциальными признаками дипфейка являются части одного и того же видео более низкого качества и нерегулярное моргание глаз.

Хотя эти признаки могут помочь обнаружить дипфейк в данный момент, поскольку технология дипфейков совершенствуется, единственным вариантом надежного обнаружения дипфейков могут быть другие типы ИИ, обученные отличать фейки от реальных медиа.

Компании искусственного интеллекта, в том числе многие крупные технологические компании, изучают методы обнаружения дипфейков. В декабре прошлого года была запущена задача по обнаружению дипфейков, которую поддержали три технологических гиганта: Amazon, Facebook и Microsoft. Исследовательские группы со всего мира работали над методами обнаружения дипфейков, соревнуясь в разработке лучших методов обнаружения. Другие группы исследователей, такие как объединенная группа исследователей из Google и Jigsaw, работают над типом «криминалистики лица», который может обнаруживать видео, которые были изменены. сделать свои наборы данных открытым исходным кодом и поощрение других к разработке методов обнаружения дипфейков. Вышеупомянутый Десса работал над совершенствованием методов обнаружения дипфейков, пытаясь убедиться, что модели обнаружения работают с видео дипфейков, найденными в дикой природе (в Интернете), а не только с предварительно составленными наборами данных для обучения и тестирования, такими как набор данных с открытым исходным кодом. Гугл предоставил.

Есть также другие стратегии которые расследуются для борьбы с распространением дипфейков. Например, проверка видео на соответствие другим источникам информации — одна из стратегий. Можно выполнять поиск видео событий, потенциально снятых с других ракурсов, или фоновые детали видео (например, погодные условия и местоположения) можно проверять на наличие несоответствий. За этим, система онлайн-регистров Blockchain могут регистрировать видео при их первоначальном создании, сохраняя исходный звук и изображения, чтобы производные видео всегда можно было проверить на манипуляции.

В конечном счете, важно, чтобы были созданы надежные методы обнаружения дипфейков и чтобы эти методы обнаружения соответствовали новейшим достижениям в технологии дипфейков. Хотя трудно точно сказать, каковы будут последствия дипфейков, если нет надежных методов обнаружения дипфейков (и других форм поддельных СМИ), дезинформация потенциально может разрастаться и подрывать доверие людей к обществу и институтам.

Последствия дипфейков

В чем опасность беспрепятственного распространения дипфейков?

Одной из самых больших проблем, которую в настоящее время создают дипфейки, является порнография без согласия, созданная путем объединения лиц людей с порнографическими видео и изображениями. Специалисты по этике ИИ обеспокоены тем, что дипфейки найдут больше применения в создании поддельного порномести. Помимо этого, дипфейки можно использовать для запугивания и нанесения ущерба репутации практически любого человека, поскольку их можно использовать для вовлечения людей в спорные и компрометирующие сценарии.

Компании и специалисты по кибербезопасности выразили обеспокоенность по поводу использования дипфейков для мошенничества, мошенничества и вымогательства. Предположительно, дипфейк аудио был используется для убеждения сотрудников компании по переводу денег мошенникам

Вполне возможно, что дипфейки могут иметь вредные последствия, выходящие за рамки перечисленных выше. Дипфейки потенциально могут подорвать доверие людей к средствам массовой информации в целом и затруднить различение реальных новостей и фейковых новостей. Если многие видеоролики в Интернете являются фальшивыми, правительствам, компаниям и другим организациям становится легче ставить под сомнение законные споры и неэтичные действия.

Когда дело доходит до правительств, дипфейки могут даже представлять угрозу для функционирования демократии. Демократия требует, чтобы граждане могли принимать информированные решения о политиках на основе достоверной информации. Дезинформация подрывает демократические процессы. Например, президент Габона Али Бонго снялся в видео, пытаясь успокоить граждан Габона. Предполагалось, что президент долгое время был нездоров, и его внезапное появление в вероятно фальшивое видео положило начало попытке государственного переворота. Президент Дональд Трамп заявил, что аудиозапись того, как он хвастается, что хватает женщин за гениталии был фальшивым, несмотря на то, что это также описывается как «разговор в раздевалке». Князь Эндрю также утверждал, что изображение, предоставленное адвокатом Эмили Майтилис, было подделкой., хотя адвокат настаивал на его подлинности.

В конечном счете, несмотря на то, что технология дипфейка может использоваться законно, существует множество потенциальных вреда, который может возникнуть в результате неправильного использования этой технологии. По этой причине чрезвычайно важно создавать и поддерживать методы определения подлинности медиа.