заглушки В 2024 году дипфейки станут мейнстримом. Вот как бизнес может защитить себя - Unite.AI
Свяжитесь с нами:

Лидеры мысли

В 2024 году дипфейки станут мейнстримом. Вот как предприятия могут защитить себя

mm

опубликованный

 on

По крайней мере, после выборов 2016 года, когда в общественное сознание ворвались опасения по поводу дезинформации, эксперты бьют тревогу по поводу дипфейков. Последствия этой технологии были и остаются ужасающими. Бесконтрольное распространение гиперреалистичных синтетических медиа представляет угрозу все члены— от политиков до обычных людей. В взрывоопасной среде, уже характеризующейся широко распространенным недоверием, дипфейки обещали только еще больше разжечь пламя.

Как оказалось, наши опасения оказались преждевременными. Технологические ноу-хау, необходимые для создания дипфейков, в сочетании с их часто плохим качеством означали, что, по крайней мере, в течение двух последних циклов президентских выборов они оставались минимальной проблемой.

Но все это вот-вот изменится – уже меняется. За последние два года технология генеративного искусственного интеллекта вошла в мейнстрим, радикально упростив процесс создания дипфейков для рядового потребителя. Эти же нововведения значительно повысили качество дипфейков, так что при слепом тестировании большинство людей не смогут отличить подделанное видео от настоящего.

Особенно в этом году мы начали видеть признаки того, как эта технология может повлиять на общество, если не будут предприняты усилия по борьбе с ней. Например, в прошлом году сгенерированная искусственным интеллектом фотография Папы Франциска в необычно стильном пальто. пошел вирусным, и многие сочли его подлинным. Хотя на каком-то уровне это может показаться безобидным развлечением, оно раскрывает опасную силу этих дипфейков и то, насколько трудно может быть обуздать дезинформацию, когда она начала распространяться. Мы можем ожидать, что в ближайшие месяцы и годы мы обнаружим гораздо менее забавные — и гораздо более опасные — примеры такого рода вирусных фейков.

По этой причине крайне важно, чтобы организации всех мастей — от средств массовой информации до финансов, правительств и платформ социальных сетей — занимали активную позицию в отношении обнаружения дипфейков и проверки подлинности контента. Необходимо создать культуру доверия посредством гарантий. сейчас, прежде чем приливная волна дипфейков сможет смыть наше общее понимание реальности.

Понимание угрозы дипфейков

Прежде чем углубляться в то, что организации могут сделать для борьбы с ростом количества дипфейков, стоит уточнить, почему именно необходимы инструменты защиты. Обычно те, кто обеспокоен дипфейками, ссылаются на их потенциальное влияние на политику и доверие в обществе. Эти потенциальные последствия чрезвычайно важны, и ими не следует пренебрегать в любом разговоре о дипфейках. Но, как оказалось, развитие этой технологии может иметь пагубные последствия для многих секторов экономики США.

Взять, к примеру, страхование. В настоящее время ежегодный объем страхового мошенничества в Соединенных Штатах составляет 308.6 миллиарда долларов — цифра примерно в четверть от суммы всей отрасли. В то же время внутренние операции большинства страховых компаний все больше автоматизируются: по прогнозам, к 70 году 2025% стандартных претензий будут бесконтактными. Это означает, что решения все чаще принимаются с минимальным вмешательством человека: самообслуживание на внешний интерфейс и автоматизация с помощью искусственного интеллекта на внутреннем уровне.

По иронии судьбы, та самая технология, которая позволила добиться такого роста автоматизации (то есть машинное обучение и искусственный интеллект), гарантировала ее эксплуатацию злоумышленниками. Сейчас обычному человеку легче, чем когда-либо, манипулировать заявлениями — например, используя программы генеративного искусственного интеллекта, такие как Dall-E, Midjourney или Stable Diffusion, чтобы автомобиль выглядел более поврежденным, чем он есть на самом деле. Специально для этой цели уже существуют приложения, такие как Dude Your Car!, которое позволяет пользователям искусственно создавать вмятины на фотографиях своих автомобилей.

То же самое относится и к официальным документам, которыми теперь можно легко манипулировать: счетами, оценочными оценками и даже подписями, корректируемыми или изобретаемыми оптом. Эта способность является проблемой не только для страховщиков, но и для всей экономики. Это проблема для финансовых учреждений, которым приходится проверять подлинность широкого спектра документов. Это проблема для розничных продавцов, которые могут получить жалобу о том, что товар прибыл с дефектом, сопровождаемый поддельным изображением.

Предприятия просто не могут работать в условиях такой степени неопределенности. Определенная степень мошенничества, вероятно, всегда неизбежна, но в случае с дипфейками мы говорим не о маргинальном мошенничестве — мы говорим о потенциальной эпистемологической катастрофе, в которой у бизнеса нет четких способов отличить правду от вымысла, и в конечном итоге они теряют миллиарды долларов. долларов на эту путаницу.

Тушим огонь огнем: как ИИ может помочь

Итак, что можно сделать, чтобы с этим бороться? Возможно, неудивительно, что ответ кроется в самой технологии, которая способствует созданию дипфейков. Если мы хотим остановить это бедствие, прежде чем оно наберет еще большую силу, нам нужно бороться с огнем огнем. ИИ может помочь создавать дипфейки, но, к счастью, он также может помочь идентифицировать их автоматически и в большом масштабе.

Используя правильные инструменты искусственного интеллекта, компании могут автоматически определять, были ли подделаны те или иные фотографии, видео или документы. Привлекая десятки разрозненных моделей к задаче фальшивой идентификации, ИИ может автоматически сообщать предприятиям, является ли данная фотография или видео подозрительной. Подобно инструментам, которые компании уже внедряют для автоматизации повседневных операций, эти инструменты могут работать в фоновом режиме, не обременяя перегруженный персонал и не отвлекая время от важных проектов.

Если фотография будет определена как потенциально измененная, сотрудники могут быть предупреждены и могут напрямую оценить проблему с помощью информации, предоставленной ИИ. Используя анализ глубокого сканирования, он может сказать предприятиям зачем он считает, что фотография, скорее всего, была подделана, указывая, например, на измененные вручную метаданные, наличие идентичных изображений в сети, различные фотографические нарушения и т. д.

Ничто из этого не умаляет невероятные достижения, которые мы наблюдаем в технологии генеративного искусственного интеллекта за последние несколько лет, которые действительно имеют полезные и продуктивные применения в различных отраслях. Но сама эффективность – не говоря уже о простоте – этой новой технологии почти гарантирует злоупотребление ею со стороны тех, кто хочет манипулировать организациями, будь то ради личной выгоды или с целью посеять социальный хаос.

организации может имеют лучшее из обоих миров: преимущества ИИ в производительности без недостатков вездесущих дипфейков. Но для этого требуется новая степень бдительности, особенно с учетом того факта, что результаты генеративного ИИ с каждым днем ​​становятся все более убедительными, подробными и реалистичными. Чем раньше организации обратят свое внимание на эту проблему, тем скорее они смогут воспользоваться всеми преимуществами автоматизированного мира.

Никос Векиаридес — генеральный директор и сооснователь компании Аттестив. Последние 20 лет он проработал в сфере корпоративных ИТ и облачных технологий в качестве генерального директора и предпринимателя, выводя на рынок новые инновационные технологии. Его предыдущий стартап, TwinStrata, инновационная компания по облачному хранению данных, где он впервые внедрил облачно-интегрированное хранилище для предприятий, был приобретен EMC в 2014 году. До этого он вывел на рынок первое в отрасли устройство виртуализации хранения для StorageApps, компании, позже приобретенной ХП.