Connect with us

Обманчивый ИИ: Использование Генеративных Моделей в Преступных Схемах

Искусственный интеллект

Обманчивый ИИ: Использование Генеративных Моделей в Преступных Схемах

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

Генеративный ИИ, подмножество Искусственного Интеллекта, быстро приобрел известность благодаря своей замечательной способности генерировать различные формы контента, включая текст, похожий на человеческий, реалистичные изображения и аудио, из обширных наборов данных. Модели, такие как GPT-3, DALL-E и Генеративные Соперничающие Сети (GANs), продемонстрировали исключительные возможности в этом отношении.

Отчет Deloitte подчеркивает двойственную природу Генеративного ИИ и подчеркивает необходимость бдительности против Обманчивого ИИ. Хотя достижения в области ИИ помогают в предотвращении преступлений, они также наделяют злонамеренных акторов полномочиями. Несмотря на законные применения, эти мощные инструменты все чаще используются киберпреступниками, мошенниками и государственными акторами, что приводит к росту сложных и обманчивых схем.

Рост Генеративного ИИ в Преступной Деятельности

Рост Генеративного ИИ привел к увеличению обманчивой деятельности, влияющей как на киберпространство, так и на повседневную жизнь. Фишинг, метод, используемый для обмана людей и получения конфиденциальной информации, теперь использует Генеративный ИИ для создания очень убедительных писем с фишингом. По мере того, как ChatGPT становится более популярным, письма с фишингом увеличились, и преступники используют его для создания персонализированных сообщений, похожих на законные коммуникации.

Эти письма, такие как фальшивые банковские оповещения или привлекательные предложения, используют человеческую психологию, чтобы обмануть получателей и заставить их раскрыть конфиденциальную информацию. Хотя OpenAI запрещает незаконное использование своих моделей, обеспечение соблюдения этого правила не является простой задачей. Невинные подсказки могут легко превратиться в злонамеренные схемы, требующие как человеческих рецензентов, так и автоматизированных систем для обнаружения и предотвращения злоупотребления.

Аналогично, финансовые мошенничества также увеличились с достижениями в области ИИ. Генеративный ИИ подпитывает аферы, создавая контент, который обманывает инвесторов и манипулирует рыночными настроениями. Представьте, что вы столкнулись с чат-ботом, который кажется человеком, но предназначен исключительно для обмана. Генеративный ИИ обеспечивает работу этих ботов, вовлекая пользователей в, казалось бы, искренние разговоры, а также извлекая конфиденциальную информацию. Генеративные модели также улучшают социальные инженерные атаки путем создания персонализированных сообщений, которые используют доверие, сочувствие и срочность. Жертвы попадают в ловушку запросов на деньги, конфиденциальные данные или учетные данные доступа.

Doxing, который включает в себя раскрытие личной информации о людях, является еще одной областью, где Генеративный ИИ помогает преступникам. Будь то раскрытие анонимных онлайн-персон или раскрытие частных деталей, ИИ усиливает влияние, что приводит к реальным последствиям, таким как кража личности и преследование.

И есть дипфейки, ИИ-генерируемые реалистичные видео, аудиоклипы или изображения. Эти цифровые двойники размыливают реальность, представляя риски от политической манипуляции до убийства характера.

Заметные Инциденты с Дипфейками и Критическими Последствиями

Неправомерное использование Генеративного ИИ привело к серии необычных инцидентов, подчеркивающих значительные риски и проблемы, которые представляет эта технология, когда она попадает в неправильные руки. Технология дипфейков, в частности, размыливает границы между реальностью и вымыслом. В результате союза GANs и творческой злонамеренности дипфейки объединяют реальные и фабрикованные элементы. GANs состоят из двух нейронных сетей: генератора и дискриминатора. Генератор создает все более реалистичный контент, такой как лица, а дискриминатор пытается обнаружить фейки.

Заметные инциденты, связанные с дипфейками, уже произошли. Например, Dessa использовала модель ИИ для создания убедительного голосового клона Джо Рогана, демонстрируя способность ИИ производить реалистичные фальшивые голоса. Дипфейки также существенно повлияли на политику, как видно из различных примеров. Например, робоколл, имитирующий президента США Джо Байдена, ввел в заблуждение избирателей Нью-Гэмпшира, а аудиозаписи, сгенерированные ИИ в Словакии, имитировали либерального кандидата, чтобы повлиять на результаты выборов. Несколько подобных инцидентов были зарегистрированы и повлияли на политику многих стран.

Финансовые мошенничества также использовали дипфейки. Британская инженерная фирма Arup стала жертвой дипфейк-аферы на сумму 20 миллионов фунтов, когда финансовый работник был обманут и перевел средства во время видеозвонка с мошенниками, использующими ИИ-генерированные голоса и изображения для имитации руководителей компании. Это подчеркивает потенциал ИИ для финансового мошенничества.

Киберпреступники все чаще используют инструменты Генеративного ИИ, такие как WormGPT и FraudGPT, для усиления своих атак, создавая значительную угрозу кибербезопасности. WormGPT, основанный на модели GPT-J, облегчает злонамеренную деятельность без этических ограничений. Исследователи из SlashNext использовали его для создания очень убедительного мошеннического письма с выставлением счета. FraudGPT, распространяемый на Telegram Channels, предназначен для сложных атак и может генерировать вредоносный код, создавать убедительные страницы фишинга и выявлять уязвимости системы. Рост этих инструментов подчеркивает растущую сложность киберугроз и срочную необходимость усиления мер безопасности.

Юридические и Этические Последствия

Юридические и этические последствия обмана, основанного на ИИ, представляют собой сложную задачу на фоне быстрого развития генеративных моделей. В настоящее время ИИ работает в серой зоне регулирования, и политикам необходимо помочь в поддержании темпа технологических разработок. Необходимы прочные рамки для ограничения злоупотребления и защиты населения от афер и мошеннической деятельности, основанной на ИИ.

Кроме того, создатели ИИ несут этическую ответственность. Прозрачность, раскрытие информации и соблюдение руководящих принципов являются важными аспектами ответственного развития ИИ. Разработчики должны предвидеть потенциальное злоупотребление и разработать меры для того, чтобы их модели ИИ могли эффективно снизить риски.

Поддержание баланса между инновациями и безопасностью имеет важное значение для решения проблем, связанных с ИИ-обусловленными аферами. Чрезмерное регулирование может сдержать прогресс, а расслабленный надзор приглашает хаос. Поэтому регулирование, которое способствует инновациям, не компрометируя при этом безопасность, имеет важное значение для устойчивого развития.

Кроме того, модели ИИ должны быть разработаны с учетом безопасности и этики. Включение функций, таких как обнаружение предвзятости, тестирование на прочность и тренировка с противниками, может повысить устойчивость к злонамеренному использованию. Это особенно важно в свете растущей сложности ИИ-обусловленных афер, подчеркивающей необходимость этического прогноза и регулирующей гибкости для защиты от обманного потенциала генеративных моделей ИИ.

Стратегии Смягчения

Стратегии смягчения для решения обманного использования моделей генеративного ИИ, основанных на ИИ, требуют многофакторного подхода, включающего улучшенные меры безопасности и сотрудничество между заинтересованными сторонами. Организации должны использовать человеческих рецензентов для оценки контента, сгенерированного ИИ, используя их опыт для выявления закономерностей злоупотребления и совершенствования моделей. Автоматизированные системы, оснащенные передовыми алгоритмами, могут сканировать на предмет красных флагов, связанных с аферами, злонамеренной деятельностью или дезинформацией, служа системами раннего предупреждения против мошеннических действий.

Кроме того, сотрудничество между технологическими компаниями, правоохранительными органами и политиками имеет важное значение для обнаружения и предотвращения обмана, основанного на ИИ. Технологические гиганты должны делиться идеями, передовым опытом и информацией о угрозах, а правоохранительные органы должны тесно работать с экспертами по ИИ, чтобы оставаться впереди преступников. Политики должны взаимодействовать с технологическими компаниями, исследователями и гражданским обществом, чтобы создать эффективные регулирования, подчеркивая важность международного сотрудничества в борьбе с обманом, основанным на ИИ.

Глядя вперед, будущее Генеративного ИИ и предотвращения преступлений характеризуется как проблемами, так и возможностями. По мере эволюции Генеративного ИИ так же будут эволюционировать и тактики преступников, и достижения в области квантового ИИ, вычислений на краю и децентрализованных моделей будут формировать эту область. Поэтому образование по этике разработки ИИ становится все более фундаментальным, и школы и университеты призываются сделать курсы по этике обязательными для практиков ИИ.

Основная Информация

Генеративный ИИ представляет как огромные выгоды, так и значительные риски, подчеркивая срочную необходимость прочных рамок регулирования и этического развития ИИ. По мере того, как киберпреступники используют передовые инструменты, эффективные стратегии смягчения, такие как человеческий надзор, передовые алгоритмы обнаружения и международное сотрудничество, имеют важное значение.

Сбалансировав инновации и безопасность, способствуя прозрачности и проектируя модели ИИ с встроенными защитными мерами, мы можем эффективно бороться с растущей угрозой обмана, основанного на ИИ, и обеспечить более безопасную технологическую среду для будущего.

Доктор Ассад Аббас, доцент COMSATS University Islamabad, Пакистан, получил степень доктора философии в Северодакотском государственном университете, США. Его исследования сосредоточены на передовых технологиях, включая облачные, туманные и краевые вычисления, анализ больших данных и ИИ. Доктор Аббас внес значительный вклад с публикациями в авторитетных научных журналах и конференциях. Он также является основателем MyFastingBuddy.