заглушки Генеративный ИИ в кибербезопасности: поле битвы, угроза, а теперь и защита - Unite.AI
Свяжитесь с нами:

Лидеры мысли

Генеративный ИИ в кибербезопасности: поле битвы, угроза, а теперь и защита

mm

опубликованный

 on

Поле битвы

То, что началось как восхищение возможностями генеративного ИИ, быстро превратилось в беспокойство. Инструменты генеративного ИИ, такие как ChatGPT, Google Bard, Dall-E и т. д., продолжают попадать в заголовки из-за проблем с безопасностью и конфиденциальностью. Это даже приводит к вопросу о том, что реально, а что нет. Генеративный ИИ может создавать очень правдоподобный и, следовательно, убедительный контент. Настолько, что по завершении недавнего 60-минутного сегмента, посвященного ИИ, ведущий Скотт Пелли оставил зрителей с этим заявлением; «Мы закончим заметкой, которая никогда не появлялась в «60 Minutes», но одна из революций ИИ, которую вы, возможно, слышите часто: предыдущая была создана со 100% человеческим содержанием».

Кибервойна генеративного ИИ начинается с этого убедительного и реального контента, а поле битвы — это место, где хакеры используют генеративный ИИ, используя такие инструменты, как ChatGPT и т. д. Киберпреступникам, особенно тем, у кого ограниченные ресурсы и нулевые технические знания, очень легко, для совершения своих преступлений с помощью социальной инженерии, фишинговых атак и атак с выдачей себя за другое лицо.

Угроза

Генеративный ИИ способен подпитывать все более изощренные кибератаки.

Поскольку технология может легко создавать такой убедительный и похожий на человека контент, специалистам по безопасности сложнее обнаружить новые кибермошенничества с использованием ИИ. Мошенничество с использованием ИИ может осуществляться в форме атак социальной инженерии, таких как многоканальные фишинговые атаки, проводимые через электронную почту и приложения для обмена сообщениями. Реальным примером может быть электронное письмо или сообщение, содержащее документ, отправленный руководителю корпорации сторонним поставщиком через Outlook (электронная почта) или Slack (приложение для обмена сообщениями). В электронном письме или сообщении им предлагается щелкнуть по нему, чтобы просмотреть счет. С генеративным ИИ практически невозможно отличить поддельное электронное письмо или сообщение от настоящего. Вот почему это так опасно.

Однако одним из самых тревожных примеров является то, что с помощью генеративного ИИ киберпреступники могут проводить атаки на нескольких языках — независимо от того, говорит ли хакер на самом деле на этом языке. Цель состоит в том, чтобы закинуть широкую сеть, и киберпреступники не будут дискриминировать жертв на основе языка.

Развитие генеративного ИИ свидетельствует о том, что масштабы и эффективность этих атак будут продолжать расти.

обороны

Киберзащита для генеративного ИИ, как известно, была недостающим элементом головоломки. До настоящего времени. Используя бои между машинами или сталкивая ИИ с ИИ, мы можем защититься от этой новой и растущей угрозы. Но как определить эту стратегию и как она выглядит?

Во-первых, индустрия должна противопоставить компьютер компьютеру, а не человека против компьютера. Чтобы продолжить эту работу, мы должны рассмотреть передовые платформы обнаружения, которые могут обнаруживать угрозы, созданные ИИ, сокращать время, необходимое для обнаружения, и время, необходимое для устранения атаки социальной инженерии, исходящей от генеративного ИИ. Что-то, на что человек неспособен.

Недавно мы провели тест того, как это может выглядеть. Мы попросили ChatGPT подготовить фишинговое электронное письмо с обратным вызовом на нескольких языках, чтобы узнать, сможет ли его обнаружить платформа распознавания естественного языка или платформа расширенного обнаружения. Мы дали ChatGPT подсказку: «Напишите срочное электронное письмо с призывом к кому-нибудь позвонить по поводу окончательного уведомления о лицензионном соглашении». Мы также приказали ему написать это на английском и японском языках.

Платформа расширенного обнаружения сразу же смогла пометить электронные письма как атаку социальной инженерии. НО, встроенные элементы управления электронной почтой, такие как платформа обнаружения фишинга Outlook, не могут этого сделать. Еще до выпуска ChatGPT социальная инженерия, осуществляемая с помощью диалоговых атак на основе языка, оказалась успешной, потому что они могли уклоняться от традиционных элементов управления, попадая в почтовые ящики без ссылки или полезной нагрузки. Так что да, для защиты требуется бой машин против машин, но мы также должны быть уверены, что используем эффективную артиллерию, такую ​​как усовершенствованная платформа обнаружения. Любой, у кого в распоряжении есть эти инструменты, имеет преимущество в борьбе с генеративным ИИ.

Когда дело доходит до масштабов и правдоподобия атак социальной инженерии, обеспечиваемых ChatGPT и другими формами генеративного ИИ, межмашинная защита также может быть улучшена. Например, эту защиту можно развернуть на нескольких языках. Он также не должен ограничиваться только безопасностью электронной почты, но может использоваться для других каналов связи, таких как приложения, такие как Slack, WhatsApp, Teams и т. д.

Сохраняйте бдительность

Просматривая LinkedIn, один из наших сотрудников наткнулся на попытку социальной инженерии Генеративного ИИ. Появилась странная реклама для скачивания «белой книги» с тем, что можно описать только как «причудливый» рекламный креатив. При ближайшем рассмотрении сотрудник увидел контрольный цветной узор в правом нижнем углу, отпечатанный на изображениях, созданных Dall-E, моделью искусственного интеллекта, которая генерирует изображения из текстовых подсказок.

Обнаружение этой поддельной рекламы LinkedIn стало важным напоминанием о новых опасностях социальной инженерии, которые теперь появляются в сочетании с генеративным ИИ. Сейчас как никогда важно быть бдительным и подозрительным.

Эпоха генеративного ИИ, используемого для киберпреступности, уже наступила, и мы должны сохранять бдительность и быть готовыми дать отпор всеми имеющимися в нашем распоряжении инструментами.

Крис Леман — главный исполнительный директор (CEO) СейфГард Кибер. Крис — опытный руководитель высшего звена с более чем 20-летним опытом работы в самых динамично развивающихся и успешных технологических компаниях мира.