Кібербезпека
Чи готовий бізнес до наступної хвилі кібератак на базі штучного інтелекту?
Аналіз сучасних тенденцій дозволяє експертам передбачити, як кіберзлочинці використовуватимуть штучний інтелект у майбутньому. За допомогою цієї інформації вони можуть виявити найбільші нові загрози та визначити, чи готові підприємства. Вони навіть можуть знайти рішення.
Стан загроз штучного інтелекту за останні роки
Хоча технологія штучного інтелекту є відносно новою, вона вже стала важливим інструментом для хакерів. Ці тенденції свідчать про зростання кібератак за допомогою штучного інтелекту.
1. Втручання в модель
Цілячись безпосередньо на великі мовні моделі (LLM), зловмисники можуть маніпулювати поведінкою моделі, знижувати точність виводу або розкривати персональні навчальні дані. Отруєння даних та швидка інженерія є поширеними методами атаки.
Деякі атаки здійснюють зловмисники, які прагнуть спричинити хаос або викрасти конфіденційну інформацію. Інші ж здійснюють незадоволені художники, які бажають захистити свої твори мистецтва від крадіжки за допомогою штучного інтелекту. У будь-якому випадку, компанія та її кінцеві користувачі страждають.
2. Атаки, що видають себе за іншу особу
У 2024 році керівник Ferrari отримав кілька повідомлень у WhatsApp від генерального директора Бенедетто Віньї. говорив про майбутнє придбання і закликав свого співробітника підписати угоду про нерозголошення. Він навіть зателефонував, щоб обговорити фінансування. Була одна проблема — це був не він.
Діпфейк був майже ідеальним, винятково добре імітуючи південноіталійський акцент Віньї. Однак незначні невідповідності в голосі натякнули керівнику на шахрайство. Працівник запитав про назву книги, яку Вінья рекомендував кілька днів тому, питання, на яке знав би відповідь лише справжній генеральний директор. Шахрай одразу ж поклав слухавку.
Штучний інтелект може клонувати голос людини, її поведінку в Інтернеті, стиль письма та зовнішність. З розвитком цієї технології виявлення діпфейків стає дедалі складнішим. Шахраї часто ставлять жертву в невідкладну ситуацію, щоб вона не ставила під сумнів незначні розбіжності.
3. Фішинг за допомогою штучного інтелекту
Раніше людина могла розпізнати фішинговий електронний лист, шукаючи погану граматику, підозрілі посилання, загальні привітання та недоречні запити. Тепер, завдяки технології обробки природної мови, хакери можуть створювати правдоподібні повідомлення з бездоганною граматикою.
Дослідники виявили, що повністю автоматизовані електронні листи з використанням штучного інтелекту для фішингу 54% рейтинг кліків, що відповідає фішинговим електронним листам, написаним людьми. Оскільки ці шахрайські дії є більш переконливими, вони стають дедалі поширенішими. Дослідження показали, що понад 80% фішингових електронних листів мають ознаки участі штучного інтелекту.
4. Соціальна інженерія
Соціальна інженерія передбачає маніпулювання кимось, щоб він вжив заходів або розголосив інформацію. Штучний інтелект дозволяє хакерам реагувати швидше та створювати переконливіші повідомлення. Будь-яка модель обробки природної мови може проводити семантичний аналіз, щоб визначити емоційний стан одержувача, що робить його більш схильним до поступки.
Окрім удосконалення методів соціальної інженерії, технологія машинного навчання знижує традиційні бар'єри входу, дозволяючи новачкам проводити складні кампанії. Якщо кожен може стати кіберзлочинцем, то кожен може стати і його мішенню.
Наступна хвиля атак штучного інтелекту, заснованих на даних
Очікується, що на початку 2026 року атаки з використанням штучного інтелекту залишатимуться на низькому рівні зрілості. Однак, з плином року вони зростатимуть експоненціально, що дозволить кіберзлочинцям перейти на етапи оптимізації, розгортання та масштабування. Незабаром вони зможуть запускати повністю автоматизовані кампанії. Підтверджені приклади кібератак із застосуванням штучного інтелекту недовго будуть рідкістю.
Поліморфне шкідливе програмне забезпечення – це вірус на базі штучного інтелекту, який може змінювати свій код щоразу під час реплікації, щоб уникнути виявлення. Зловмисники можуть доставляти корисне навантаження через екосистеми штучного інтелекту, звертатися до LLM під час виконання для генерації команд або безпосередньо вбудовувати вірус у LLM. Група розвідки загроз Google виявила, що зловмисники вперше розгорнули це шкідливе програмне забезпечення у 2025 році.
Сімейства шкідливих програм – PROMPTFLUX та PROMPTSTEAL. Під час виконання вони використовують LLM для запиту методів обфускації та уникнення VBScript. Вони уникати виявлення на основі сигнатур шляхом обфускації власного коду на вимогу.
Дані свідчать про те, що ці загрози все ще перебувають на стадії тестування — деякі незавершені функції закоментовані, а виклики прикладного програмування обмежені. Ці нові сімейства шкідливих програм на базі штучного інтелекту можуть все ще перебувати в розробці, але саме їхнє існування являє собою величезний крок вперед у напрямку автономних, адаптивних методів атак.
Дослідження Нью-Йоркського університету в Тандоні показує, що фахівці з права вже можуть автономно виконувати атаки програм-вимагачів, які отримали назву Ransomware 3.0. Вони можуть проводити розвідку, генерувати корисні навантаження та персоналізувати вимагання без участі людини. потрібні лише підказки природною мовою вбудований у бінарний файл. Модель створює поліморфні варіанти, які адаптуються до середовища виконання, динамічно генеруючи шкідливий код під час виконання.
Чи готовий бізнес до атак штучного інтелекту?
Незважаючи на мільярдні витрати на кібербезпеку, приватний бізнес продовжує намагатися встигати за зміною ландшафту загроз. Технологія машинного навчання може зробити існуюче програмне забезпечення для виявлення та реагування застарілим, що ще більше ускладнить захист. Не допомагає й те, що багато хто не відповідає основним стандартам безпеки.
У Звіті DIB про зрілість кібербезпеки за 2024 рік було опитано 400 фахівців з інформаційних технологій на оборонно-промисловій базі США (DIB). половина респондентів повідомлялося, що до відповідності вимогам Сертифікації моделі зрілості кібербезпеки (CMMC) 2.0 ще кілька років, незважаючи на те, що еквівалентна відповідність вимогам NIST 800-171 була викладена в контрактах Міністерства оборони (DoD) з 2016 року. Багато хто оцінює свій рівень безпеки як набагато кращий, ніж він є насправді.
Нові вимоги CMMC набув чинності 10 листопада, 2025. У майбутньому всі контракти Міністерства оборони вимагатимуть певного рівня відповідності вимогам CMMC як умови укладання контракту. Нові правила покликані посилити кібербезпеку DIB, але чи будуть вони ефективними в епоху штучного інтелекту?
Чи є оборонний ШІ відповіддю?
Боротьба з вогнем вогнем може бути єдиним способом протидії неминучому сплеску атак штучного інтелекту. Завдяки захисному штучному інтелекту організації можуть динамічно реагувати на загрози в режимі реального часу. Однак цей підхід має власні недоліки безпеки — захист моделі від несанкціонованого доступу вимагатиме постійного нагляду та аудиту.
За даними Harvard Business Review, традиційні рішення залишають бізнес вразливим до кібератак на основі штучного інтелекту. Щоб досягти кіберстійкості, вони повинні використовувати технології машинного навчання для передбачення загроз та автоматичного реагування на них.
Немає простої відповіді на питання, чи є захисний штучний інтелект рішенням цієї проблеми. Чи варто компаніям вкладати свої ресурси у впровадження неперевірених інструментів машинного навчання чи розширення своїх команд з інформаційних технологій? Неможливо передбачити, які інвестиції окупляться в довгостроковій перспективі.
Великі підприємства можуть отримати значну віддачу від автоматизованої кібербезпеки, тоді як малим підприємствам може бути важко виправдати витрати. Традиційні технології автоматизації можуть допомогти скоротити розрив за значно нижчою ціною, але вони не зможуть реагувати на динамічні загрози.
Стів Дурбін, генеральний директор Форуму інформаційної безпеки, стверджує, що впровадження штучного інтелекту має значні переваги, але також має й серйозні недоліки. Наприклад, підприємства часто стикаються з сплеск хибнопозитивних сповіщень, що марнує час команд безпеки. Більше того, надмірна залежність від штучного інтелекту може призвести до надмірної впевненості команд, що призведе до прогалин у безпеці.
Орієнтування в ландшафті загроз штучного інтелекту
Неможливо визначити точний масштаб присутності штучного інтелекту в ландшафті загроз, оскільки зловмисники можуть використовувати його для створення шкідливого коду або написання фішингових електронних листів, а не під час виконання. Поодинокі кіберзлочинці та спонсоровані державою групи загроз можуть використовувати його у великих масштабах.
Виходячи з наявної інформації, підробка моделей, фішинг за допомогою штучного інтелекту та поліморфне шкідливе програмне забезпечення стануть найбільшими кіберзагрозами 2026 року. Кіберзлочинці, ймовірно, продовжуватимуть використовувати LLM для створення, доставки та адаптації шкідливих корисних навантажень, атакуючи як ціннісні галузі, такі як фінанси, так і звичайних людей.












