Connect with us

Чи готові підприємства до наступної хвилі кібератак, які використовують штучний інтелект?

Кібербезпека

Чи готові підприємства до наступної хвилі кібератак, які використовують штучний інтелект?

mm

Аналіз поточних тенденцій дозволяє експертам передбачити, як кіберзлочинці будуть використовувати штучний інтелект у майбутньому. З цією інформацією вони можуть визначити найбільші нові загрози та визначити, чи готові підприємства до них. Вони навіть можуть знайти рішення.

Стан загроз штучного інтелекту за останні роки

Хоча технологія штучного інтелекту відносно нова, вона вже стала потужним інструментом для хакерів. Ці тенденції свідчать про те, що кібератаки, які використовують штучний інтелект, зростають.

1. Втручання у моделі

Направляючи великі мовні моделі (LLM) безпосередньо, суб’єкти загроз можуть маніпулювати поведінкою моделі, знижувати точність виходу або розкривати особисті дані навчання. Отруєння даних та інженерія запитів є поширеними методами атак.

Деякі атаки здійснюються суб’єктами загроз, які намагаються створити хаос або викрасти конфіденційну інформацію. Інші здійснюються незадоволеними художниками, які хочуть захистити свою творчість від витягування штучним інтелектом. У будь-якому випадку, компанія та її кінцеві користувачі негативно постраждають.

2. Атаки на підставу особи

У 2024 році виконавчий директор Ferrari отримав кілька повідомлень у WhatsApp від генерального директора Бенедетто Віньї. Віньї розповів про майбутню купівлю та закликав свого працівника підписати угоду про нерозголошення інформації. Він навіть зателефонував, щоб обговорити фінансування. Була одна проблема — це не був він.

Діпфейк був майже досконалим, імітуючи південний італійський акцент Віньї винятково добре. Однак незначні несучастності у голосі сповістили виконавчого директора про шахрайство. Працівник запитав про назву книги, яку Віньї порекомендував кілька днів тому, питання, на яке міг відповісти лише справжній генеральний директор. Шахрай негайно повісив трубку.

Штучний інтелект може клонувати голос людини, поведінку при перегляді, стиль письма та зовнішність. По мірі вдосконалення цієї технології, ідентифікація діпфейків стає все більш складною. Шахраї часто ставлять свою ціль у ситуацію, яка не дозволяє їм сумніватися у незначних розбіжностях.

3. Фішинг з використанням штучного інтелекту

У минулому людину можна було ідентифікувати фішинг-повідомлення, шукаючи погану граматику, підозрілі посилання, загальні вітання та невластиві прохання. Тепер, завдяки технології обробки природної мови, хакери можуть створювати правдоподібні повідомлення з бездоганною граматикою.

Дослідники виявили, що повністю автоматизовані фішинг-повідомлення, створені штучним інтелектом, мають 54% рівень клікування, який є порівнюваним з фішинг-повідомленнями, написаними людьми. Оскільки ці шахрайства є більш переконливими, вони стають все більш поширеними. Дослідження показали, що понад 80% фішинг-повідомлень містять ознаки участі штучного інтелекту.

4. Соціальна інженерія

Соціальна інженерія полягає у маніпулюванні людиною, щоб вона здійснила певну дію або розкрила інформацію. Штучний інтелект дозволяє хакерам реагувати швидше та створювати більш переконливі повідомлення. Будь-яка модель обробки природної мови може проводити семантичний аналіз, щоб визначити емоційний стан одержувача, що робить його більш схильним до підкорення.

Крім того, технологія машинного навчання знижує традиційні бар’єри входу, дозволяючи новачкам проводити складні кампанії. Якщо кожен може стати кіберзлочинцем, кожен може стати ціллю.

Наступна хвиля даних, керованих штучним інтелектом

На початку 2026 року атаки, які використовують штучний інтелект, як очікується, залишаться на низькому рівні зрілості. Однак вони будуть розвиватися експоненціально протягом року, дозволяючи кіберзлочинцям входити у стадії оптимізації, розгортання та масштабування. Вони скоро зможуть проводити повністю автоматизовані кампанії. Підтверджені приклади кібератак, які використовують штучний інтелект, не будуть рідкісними.

Поліморфний шкідливий код — це вірус, який використовує штучний інтелект і може змінювати свій код кожен раз при реплікації, щоб уникнути виявлення. Нападники можуть доставляти вантаж через екосистеми штучного інтелекту, звертатися до великих мовних моделей під час виконання, щоб генерувати команди або безпосередньо вбудовувати вірус у велику мовну модель. Група збору інформації про загрози Google виявила, що противники вперше розгорнули цей шкідливий код у 2025 році.

Родини шкідливих програм — PROMPTFLUX і PROMPTSTEAL. Під час виконання вони використовують великі мовні моделі, щоб запитати техніки обфускації та ухилення на основі VBScript. Вони ухиляються від виявлення на основі підписів, обфускуючи свій власний код за запитом.

Докази свідчать про те, що ці загрози ще перебувають у стадії тестування — деякі незавершені функції відзначені коментарями, а виклики програмування обмежені. Ці сім’ї шкідливих програм можуть ще перебувати у стадії розробки, але їхнє існування представляє величезний крок вперед у напрямку автономних, адаптивних методів атак.

Дослідження NYU Tandon показують, що великі мовні моделі вже можуть автономно проводити атаки з вимогою викупу, які називаються Ransomware 3.0. Вони можуть проводити розвідку, генерувати вантажі та персоналізувати вимогу викупу без участі людини. Це вимагає тільки природної мови проміжних提示в, вбудованих у бінарний код. Модель дає поліморфні варіанти, які адаптуються до середовища виконання, динамічно генеруючи шкідливий код під час виконання.

Чи готові підприємства до атак, які використовують штучний інтелект?

Незважаючи на мільярди витрат на кібербезпеку, приватні підприємства продовжують боротися за те, щоб збігатися з еволюцією ландшафту загроз. Технологія машинного навчання може зробити існуюче програмне забезпечення виявлення та реагування застарілим, що ще більше ускладнює захист. Це не полегшує те, що багато підприємств не відповідають базовим стандартам безпеки.

Звіт про зрілість кібербезпеки DIB 2024 року опитав 400 фахівців з інформаційних технологій у США у сфері оборонної промислової бази (DIB). Більше половини респондентів повідомили, що вони відстали на роки від сертифікації зрілості кібербезпеки (CMMC) 2.0, незважаючи на те, що еквівалентна відповідність NIST 800-171 була викладена у контрактах Міністерства оборони (DoD) з 2016 року. Багато підприємств оцінюють свій рівень безпеки як значно кращий, ніж він є насправді.

Нові вимоги CMMC вступили в силу 10 листопада 2025 року. У майбутньому всі контракти Міністерства оборони США будуть вимагати певний рівень відповідності CMMC як умову нагородження контракту. Нові правила призначені для посилення кібербезпеки DIB, але чи будуть вони ефективними у добу штучного інтелекту?

Чи є оборонний штучний інтелект відповіддю?

Боротьба з вогнем вогнем може бути єдиним способом протидії неминучому зростанню атак, які використовують штучний інтелект. З оборонним штучним інтелектом організації можуть динамічно реагувати на загрози в режимі реального часу. Однак цей підхід має свої власні проблеми з безпекою — забезпечення безпеки моделі від втручання буде вимагати постійного нагляду та аудиту.

Згідно з Harvard Business Review, традиційні рішення роблять підприємства вразливими до атак, які використовують штучний інтелект. Щоб досягти кіберстійкості, їм потрібно використовувати технологію машинного навчання для передбачення та автоматичної реакції на загрози.

Немає простої відповіді на те, чи є оборонний штучний інтелект рішенням цієї проблеми. Чи повинні підприємства вкладати свої ресурси у розгортання недоведених інструментів машинного навчання або розширення своїх команд інформаційних технологій? Неможливо передбачити, який вклад дасть результат у довгостроковій перспективі.

Великі підприємства можуть бачити значну віддачу від автоматизованої кібербезпеки, тоді як малий бізнес може боротися з виправданням витрат. Традиційна технологія автоматизації може закрити розрив за значно нижчу ціну, але вона не зможе реагувати на динамічні загрози.

Стів Дербін, генеральний директор Інформаційного форуму з безпеки, заявляє, що прийняття штучного інтелекту має суттєві переваги, але також і суттєві недоліки. Наприклад, підприємства часто переживають сплеск помилкових сповіщень, що марнує час команд безпеки. Крім того, надмірна залежність від штучного інтелекту може привести до того, що команди стають надто впевненими, що призводить до порушень безпеки.

Навігація у ландшафті загроз штучного інтелекту

Неможливо визначити точний масштаб присутності штучного інтелекту у ландшафті загроз, оскільки нападники можуть використовувати його для створення шкідливого коду або складання фішинг-повідомлень, а не використовувати його під час виконання. Одні кіберзлочинці та групи, спонсовані державами, могли використовувати його у великому масштабі.

Відповідно до наявної інформації, втручання у моделі, фішинг з використанням штучного інтелекту та поліморфний шкідливий код будуть найбільшими кіберзагрозами 2026 року. Кіберзлочинці, ймовірно, продовжуватимуть використовувати великі мовні моделі для генерації, доставки та адаптації шкідливих вантажів, націлюючись на високоцінні галузі, такі як фінанси, а також на звичайних людей.

Zac Amos є технічним письменником, який зосереджується на штучному інтелекті. Він також є редактором рубрики у ReHack, де ви можете прочитати більше його робіт.