Connect with us

Искусственный интеллект

Что Такое Deepfakes?

mm

По мере того, как глубокие подделки становятся проще в制作е и более многочисленными, им уделяется больше внимания. Глубокие подделки стали центральной темой обсуждений, связанных с этикой ИИ, дезинформацией, открытостью информации и интернета, а также регулированием. Полезно быть информированным о глубоких подделках и иметь интуитивное понимание того, что они такое. В этой статье мы проясним определение глубокой подделки, рассмотрим их варианты использования, обсудим, как можно обнаружить глубокие подделки, и рассмотрим последствия глубоких подделок для общества.

Что Такое Глубокие Подделки?

Прежде чем приступить к дальнейшему обсуждению глубоких подделок, было бы полезно потратить некоторое время и прояснить то, что на самом деле означает термин “глубокие подделки”. Существует значительное количество путаницы вокруг термина Глубокая Подделка, и часто этот термин неправильно применяется к любой фальсифицированной информации, независимо от того, является ли она настоящей глубокой подделкой или нет. Чтобы квалифицироваться как Глубокая Подделка, фальсифицированная информация должна быть сгенерирована с помощью системы машинного обучения, в частности, глубокой нейронной сети.

Ключевым ингредиентом глубоких подделок является машинное обучение. Машинное обучение сделало возможным для компьютеров автоматически генерировать видео и аудио относительно быстро и легко. Глубокие нейронные сети обучаются на кадрах реального человека, чтобы сеть могла научиться, как люди выглядят и движутся в целевых условиях окружающей среды. Обученная сеть затем используется на изображениях другого человека и дополняется дополнительными компьютерными графическими методами, чтобы объединить нового человека с оригинальным кадром. Алгоритм кодирования используется для определения сходств между оригинальным лицом и целевым лицом. Как только общие черты лиц были выделены, второй алгоритм ИИ, называемый декодером, используется. Декодер анализирует закодированные (сжатые) изображения и восстанавливает их на основе черт в оригинальных изображениях. Два декодера используются, один на лице оригинального субъекта и второй на лице целевого человека. Чтобы сделать замену, декодер, обученный на изображениях человека X, подается изображениями человека Y. В результате лицо человека Y восстанавливается над выражениями лица и ориентацией человека X.

В настоящее время создание глубокой подделки все еще требует значительного количества времени. Создатель подделки должен потратить много времени на ручное регулирование параметров модели, поскольку неоптимальные параметры приведут к заметным несовершенствам и глюкам изображения, которые выдают истинную природу подделки.

Хотя часто предполагается, что большинство глубоких подделок создаются с помощью типа нейронной сети, называемой генеративной состязательной сетью (GAN), многие (возможно, большинство) глубокие подделки, созданные в последнее время, не полагаются на GAN. Хотя GAN сыграли значительную роль в создании ранних глубоких подделок, большинство видеороликов глубоких подделок создаются с помощью альтернативных методов, согласно Siwei Lyu из SUNY Buffalo.

Для обучения GAN требуется чрезвычайно большое количество тренировочных данных, и GAN часто требуют гораздо больше времени для рендеринга изображения по сравнению с другими методами генерации изображений. GAN также лучше подходят для генерации статических изображений, чем видео, поскольку GAN испытывают трудности в поддержании последовательности кадров. Гораздо более распространено использование кодировщика и нескольких декодеров для создания глубоких подделок.

Для Чего Используются Глубокие Подделки?

Многие глубокие подделки, найденные в Интернете, имеют порнографический характер. Согласно исследованиям, проведенным компанией Deeptrace, фирмой по ИИ, из выборки примерно 15 000 видеороликов глубоких подделок, сделанной в сентябре 2019 года, примерно 95% из них были порнографического характера. Тревожным следствием этого факта является то, что по мере того, как технология становится проще в использовании, могут возрасти случаи фальшивой мести-порнографии.

Однако не все глубокие подделки имеют порнографический характер. Существуют более законные применения технологии глубоких подделок. Технология аудио-глубоких подделок может помочь людям транслировать свои обычные голоса после того, как они были повреждены или потеряны из-за болезни или травмы. Глубокие подделки также могут быть использованы для сокрытия лиц людей, которые находятся в чувствительных, потенциально опасных ситуациях, а также для чтения их губ и выражений. Технология глубоких подделок может быть использована для улучшения дубляжа в иностранных фильмах, помощи в ремонте старых и поврежденных носителей информации, и даже создания новых стилей искусства.

Невидеоподделки

Хотя большинство людей думают о фальшивых видеороликах, когда слышат термин “глубокая подделка”, фальшивые видеоролики далеко не единственный тип фальшивой информации, создаваемой с помощью технологии глубоких подделок. Технология глубоких подделок используется для создания фальшивых фотографий и аудио. Как упоминалось ранее, GAN часто используются для генерации фальшивых изображений. Считается, что было много случаев фальшивых профилей LinkedIn и Facebook, у которых профильные изображения были сгенерированы с помощью алгоритмов глубоких подделок.

Возможно создать аудио-глубокие подделки. Глубокие нейронные сети обучаются для создания голосовых клонов/голосовых шкур разных людей, включая знаменитостей и политиков. Одним из известных примеров аудио-глубокой подделки является тот, когда компания Dessa использовала модель ИИ, поддержанную не-ИИ-алгоритмами, для воссоздания голоса ведущего подкаста Joe Rogan.

Как Определить Глубокие Подделки

По мере того, как глубокие подделки становятся более совершенными, различать их от настоящей информации будет все труднее и труднее. В настоящее время существуют некоторые явные признаки, на которые люди могут обратить внимание, чтобы определить, является ли видео потенциальной глубокой подделкой, такие как плохая синхронизация губ, неестественные движения, мерцание вокруг края лица и искажение мелких деталей, таких как волосы, зубы или отражения. Другими потенциальными признаками глубокой подделки являются более низкокачественные части одного и того же видео и нерегулярное моргание глаз.

Хотя эти признаки могут помочь определить глубокую подделку в настоящее время, по мере улучшения технологии глубоких подделок единственным вариантом для надежного обнаружения глубоких подделок может быть другой тип ИИ, обученный для различения фальшивой и настоящей информации.

Компании по искусственному интеллекту, включая многие крупные технологические компании, исследуют методы обнаружения глубоких подделок. В прошлом декабре был запущен вызов обнаружения глубоких подделок, поддержанный тремя технологическими гигантами: Amazon, Facebook и Microsoft. Исследовательские команды со всего мира работали над методами обнаружения глубоких подделок, соревнуясь в разработке лучших методов обнаружения. Другие группы исследователей, такие как объединенная команда исследователей из Google и Jigsaw, работают над типом “лицевой криминалистики”, который может обнаружить видео, которые были изменены, делая свои наборы данных открытыми и поощряя других разработать методы обнаружения глубоких подделок. Упомянутая компания Dessa работала над усовершенствованием методов обнаружения глубоких подделок, пытаясь обеспечить, чтобы модели обнаружения работали на видео глубоких подделок, найденных в Интернете, а не только на предварительно составленных тренировочных и тестовых наборах, таких как открытый набор данных, предоставленный Google.

Существуют также другие стратегии, которые исследуются для борьбы с распространением глубоких подделок. Например, проверка видео на соответствие другой информации является одной из стратегий. Можно выполнить поиск видео событий, снятых с других углов, или проверить фоновые детали видео (например, погодные условия и местоположения) на несоответствия. Помимо этого, система онлайн-журнала Blockchain может зарегистрировать видео при их первоначальном создании, сохраняя их оригинальный аудио и изображения, чтобы производные видео всегда могли быть проверены на манипуляции.

В конечном итоге важно, чтобы были созданы надежные методы обнаружения глубоких подделок и чтобы эти методы обнаружения поддерживались в актуальном состоянии с последними достижениями в технологии глубоких подделок. Хотя трудно знать точно, какие будут последствия глубоких подделок, если не будут разработаны надежные методы обнаружения глубоких подделок (и других форм фальшивой информации), дезинформация может потенциально распространиться и подорвать доверие людей к обществу и учреждениям.

Последствия Глубоких Подделок

Какие опасности существуют, если глубокие подделки будут распространяться без контроля?

Одной из самых больших проблем, которые создают глубокие подделки в настоящее время, является непорнографическая порнография, созданная путем объединения лиц людей с порнографическими видео и изображениями. Этики ИИ боятся, что глубокие подделки будут использоваться чаще для создания фальшивой мести-порнографии. Помимо этого, глубокие подделки могут быть использованы для запугивания и нанесения ущерба репутации几乎 любого человека, поскольку они могут быть использованы для помещения людей в противоречивые и компрометирующие ситуации.

Компании и специалисты по кибербезопасности выразили обеспокоенность по поводу использования глубоких подделок для облегчения мошенничества, фальсификации и вымогательства. Согласно сообщениям, глубокий подделочный аудио был использован для убеждения сотрудников компании перевести деньги мошенникам

Возможно, что глубокие подделки могут иметь вредные последствия, выходящие за рамки перечисленных выше. Глубокие подделки могут потенциально подорвать доверие людей к информации в целом и сделать трудным для людей различать реальные новости и фальшивые новости. Если многие видео в Интернете являются фальшивыми, становится легче для правительств, компаний и других организаций вызвать сомнения в легитимных противоречиях и неэтичных практиках.

Когда речь идет о правительствах, глубокие подделки могут даже представлять угрозу для функционирования демократии. Демократия требует, чтобы граждане могли принимать обоснованные решения о политиках на основе надежной информации. Дезинформация подрывает демократические процессы. Например, президент Габона, Ali Bongo, появился в видео, пытаясь успокоить граждан Габона. Президент считался больным в течение долгого времени, и его внезапное появление в вероятно фальшивом видео спровоцировало попытку государственного переворота. Президент Дональд Трамп заявил, что аудиозапись, на которой он хвастается тем, что хватает женщин за гениталии, была фальшивой, несмотря на то, что также описал ее как “разговор в раздевалке”. Принц Андрей также заявил, что изображение, предоставленное адвокатом Эмили Мейтилис, было фальшивым, хотя адвокат настаивал на его подлинности.

В конечном итоге, хотя существуют законные применения технологии глубоких подделок, существует много потенциальных вредов, которые могут возникнуть в результате неправильного использования этой технологии. Поэтому крайне важно, чтобы были разработаны методы определения подлинности информации и чтобы эти методы обнаружения поддерживались в актуальном состоянии.

Блогер и программист с специализацией в Machine Learning и Deep Learning темах. Daniel надеется помочь другим использовать силу ИИ для социального блага.