Connect with us

В 2024 году глубокие фейки станут мейнстримом. Вот как бизнес может защитить себя

Лидеры мнений

В 2024 году глубокие фейки станут мейнстримом. Вот как бизнес может защитить себя

mm

По крайней мере с момента выборов 2016 года, когда опасения по поводу дезинформации ворвались в общественное сознание, эксперты предупреждали о глубоких фейках. Последствия этой технологии были – и остаются – ужасающими. Неограниченное распространение сверхреалистичных синтетических медиа представляет угрозу всем – от политиков до обычных людей. В уже взрывоопасной среде, характеризующейся широким недоверием, глубокие фейки обещали только подогреть пламя дальше.

Оказалось, что наши страхи были преждевременными. Технологические знания, необходимые для создания глубоких фейков, в сочетании с их часто низким качеством, означали, что в течение последних двух президентских избирательных циклов они оставались минимальной проблемой.

Но все это вот-вот изменится – уже меняется. За последние два года технология генеративного ИИ вошла в мейнстрим, радикально упростив процесс создания глубоких фейков для среднего потребителя. Эти же инновации значительно повысили качество глубоких фейков, так что в слепом тесте большинство людей не смогли бы отличить отредактированное видео от настоящего.

В этом году, особенно, мы начали видеть признаки того, как эта технология может повлиять на общество, если не будут предприняты усилия по борьбе с ней. Например, в прошлом году фотография Папы Франциска в необычно стильной куртке стала вирусной, и многие приняли ее за подлинную. Хотя это может показаться, на одном уровне, безобидным шуткой, оно раскрывает опасную потенцию этих глубоких фейков и то, насколько трудно остановить дезинформацию, как только она начинает распространяться. Мы можем ожидать найти намного менее забавные – и намного более опасные – случаи такого вирусного фейка в ближайшие месяцы и годы.

По этой причине важно, чтобы организации всех видов – от средств массовой информации до финансов, правительств и социальных платформ – заняли активную позицию по обнаружению глубоких фейков и проверке подлинности контента. Культура доверия посредством гарантий должна быть установлена сейчас, прежде чем волна глубоких фейков может смыть наше общее понимание реальности.

Понимание угрозы глубоких фейков

Прежде чем приступить к тому, что организации могут сделать, чтобы бороться с этим всплеском глубоких фейков, стоит подробнее рассказать о том, почему необходимы инструменты безопасности. Обычно те, кто обеспокоен глубокими фейками, ссылаются на их потенциальное влияние на политику и социальное доверие. Эти потенциальные последствия крайне важны и не должны быть упущены в любом разговоре о глубоких фейках. Но оказывается, что рост этой технологии имеет потенциально катастрофические последствия в нескольких секторах экономики США.

Возьмем, к примеру, страхование. Сейчас ежегодный объем страхового мошенничества в США составляет 308,6 миллиарда долларов – цифра, примерно в четыре раза меньше размера всей отрасли. В то же время, задние операции большинства страховых компаний становятся все более автоматизированными, и к 2025 году 70% стандартных претензий, как ожидается, будут без участия человека: самообслуживание на переднем плане и автоматизация на основе ИИ на заднем плане.

Иронично, что именно та технология, которая позволила увеличить автоматизацию – т. е. машинное обучение и искусственный интеллект – гарантировала ее эксплуатацию злоумышленниками. Теперь для среднего человека стало проще манипулировать претензиями – например, с помощью генеративных программ ИИ, таких как Dall-E, Midjourney или Stable Diffusion, сделать машину более поврежденной, чем она есть на самом деле. Уже существуют приложения, специально созданные для этой цели, такие как Dude Your Car!, которое позволяет пользователям искусственно создавать вмятины на фотографиях своих транспортных средств.

То же самое относится к официальным документам, которые теперь можно легко манипулировать – с выставленными счетами, оценками страхования и даже подписями, измененными или выдуманными целиком. Эта возможность является проблемой не только для страховщиков, но и во всей экономике. Это проблема для финансовых учреждений, которые должны проверять подлинность широкого спектра документов. Это проблема для розничных продавцов, которые могут получить жалобу о том, что продукт прибыл с дефектом, сопровождаемую отредактированным изображением.

Бизнес не может функционировать с таким уровнем неопределенности. Некоторая степень мошенничества, вероятно, всегда неизбежна, но с глубокими фейками мы говорим не о мошенничестве на окраинах – мы говорим о потенциальной эпистемологической катастрофе, при которой у бизнеса нет четкого способа различать правду и вымысел, и в результате они теряют миллиарды долларов из-за этой путаницы.

Борьба с огнем огнем: как ИИ может помочь

Итак, что можно сделать, чтобы бороться с этим? Может быть, не удивительно, что ответ лежит в самой технологии, которая облегчает глубокие фейки. Если мы хотим остановить это бедствие, прежде чем оно наберет больше импульса, нам нужно бороться огнем огнем. ИИ может помочь генерировать глубокие фейки – но он также, к счастью, может помочь их выявить автоматически и в масштабе.

Используя правильные инструменты ИИ, бизнес может автоматически определить, была ли данная фотография, видео или документ изменена. Привлекая десятки различных моделей к задаче выявления фейков, ИИ может автоматически сказать бизнесу точно, является ли данная фотография или видео подозрительным. Как и инструменты, которые бизнес уже развертывает для автоматизации ежедневных операций, эти инструменты могут работать в фоновом режиме без нагрузки на уже перегруженный персонал или отвлечения времени от важных проектов.

Если и когда фотография идентифицируется как потенциально измененная, человеческий персонал может быть предупрежден, и может оценить проблему напрямую, с помощью информации, предоставленной ИИ. С помощью глубокого анализа ИИ может сказать бизнесу почему он считает, что фотография, вероятно, была отредактирована – указывая, например, на измененные метаданные, существование идентичных изображений в Интернете, различные фотографические нерегулярности и т. д.

Ничто из этого не умаляет невероятных достижений, которых мы стали свидетелями в технологии генеративного ИИ за последние несколько лет, которые действительно имеют полезные и продуктивные применения в различных отраслях. Но именно потенция – и простота – этой возникающей технологии почти гарантирует ее злоупотребление теми, кто стремится манипулировать организациями, будь то для личной выгоды или для посева социальной хаос.

Организации могут иметь лучшее из обоих миров: производственные выгоды от ИИ без недостатков повсеместных глубоких фейков. Но для этого требуется новый уровень бдительности, особенно учитывая тот факт, что выходы генеративного ИИ становятся все более убедительными, подробными и похожими на жизнь с каждым днем. Чем раньше организации обратят внимание на эту проблему, тем раньше они смогут воспользоваться полными преимуществами автоматизированного мира.

Nicos Vekiarides является генеральным директором и сооснователем Attestiv. Он провел последние 20 лет в сфере корпоративных ИТ и облачных технологий, занимая должность генерального директора и предпринимателя, выводя на рынок инновационные новые технологии. Его предыдущий стартап, TwinStrata, инновационная компания по облачному хранению, где он был пионером в области облачного хранения для корпоративных клиентов, был приобретен компанией EMC в 2014 году. До этого он вывел на рынок первый в отрасли виртуальный накопитель для StorageApps, компанию, которая позже была приобретена компанией HP.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.