Лідери думок
Коли штучний інтелект виходить з-під контролю: мінімізація внутрішніх загроз у добу автономних агентів

Штучні інтелектні агенти переживають стрімкий розвиток, створюючи нові виклики для команд безпеки та ІТ. На порозі цього зсуву до більш автоматизованих робочих процесів для забезпечення бізнес-континуальності, недавнє тестування виявило, що штучні інтелектні агенти можуть виступати з небезпечною або обманною поведінкою під певними умовами, створюючи нову внутрішню загрозу для підприємств у різних галузях.
Презентація критичної потреби для організацій правильно моніторити штучні інтелектні агенти, які мають доступ до конфіденційних даних і діють без нагляду людини, потенційно вводить нові класи ризиків, які є швидшими, менш передбачуваними і важчими для атрибуції. Реальність цих ризиків є двоїстою. З одного боку, команди безпеки повинні бути готові до зловмисних акторів, які використовують штучні інтелектні агенти для посилення соціальної інженерії, спрямованої на їхніх працівників. З іншого боку, їм необхідно бути готовими до внутрішніх штучних інтелектних агентів компанії, які можуть виступати з поведінкою, що створює цілком новий набір ризиків і уразливостей.
Як внутрішні штучні інтелектні агенти можуть привести до внутрішніх загроз
Штучні інтелектні агенти створюють два ключових внутрішніх ризики безпеки всередині корпоративних мереж. По-перше, вони діють автономно без етичних меж або вбудованої підзвітності, яку люди природно дотримуються. Працюючи на основі висновків про цілі, а не явних інструкцій, їхня ефективність і наполегливість можуть розширити межі і дозволити їм діяти без затвердження. Без необхідних перевірок і балансів ризики можуть легко бути створені і проігноровані.
Ці агенти також можуть мати доступ до великих обсягів даних, але не мають можливості розрізняти привілейовані та звичайні відомості. Тому навіть прості завдання, такі як аналіз наборів даних, можуть спричинити витік або експозицію даних зовнішнім сторонам. Цей виклик стає ще більш складним, коли штучний інтелект розгортається по різних системах і робочим процесам з різними правилами і протоколами обробки даних. Агенти, що діють по регіонах, часто порушують регіональні правила обробки даних через нестабільну політику виконання, тим самим створюючи ризики безпеки. Реальність полягає в тому, що лише 30% підприємств у США активно відстежують, які штучні інтелектні агенти мають доступ до критичних систем, створюючи великий сліпий плям безпеки.
Як зовнішні штучні інтелектні агенти можуть привести до внутрішніх загроз
Одним з найпоширеніших способів входу для хакерів є фішинг і соціальна інженерія. Зловмисні актори та кібер-групи використовують штучні інтелектні агенти для посилення цих атак і проведення складних інцидентів глибоких фейків і імітації. Штучні інтелектні агенти можуть бути використані для створення фішингових і соціальних інженерних атак, які здаються більш реальними і правдоподібними для необученого ока. 60% порушень у 2024 році включали людський фактор, і майже чверть з них походила від соціальної інженерії. Ця кількість буде зростати з використанням штучних інтелектних агентів для посилення цих методів входу.
Штучні інтелектні агенти можуть бути навчені для просіювання великих обсягів соціальних медіа і персональних даних по платформам і каналам для відсилання цілевих, персоналізованих повідомлень. Повідомлення, що імітують тон і голос відправників, більш імовірно будуть успішними і важче відрізнити від реальних медіа. Штучні інтелектні агенти можуть навчитися адаптувати свої кампанії для покращення ефективності, зміни напрямку, коли атака не спрацює, або імітуючи атаку, яка спрацювала.
Коли мова йде про глибокі фейки, штучні інтелектні агенти можуть генерувати ці імітації з видатними швидкостями, що призводить до масової маніпуляції. Зловмисні актори також використовують штучні інтелектні агенти для спілкування з відеодзвінками в реальному часі з мінімальною затримкою і покращенням достовірності. Вони можуть реагувати на реакцію цілі в реальному часі і змінювати свій підхід, якщо це необхідно. Ці посилені атаки можуть збільшити ризик внутрішніх загроз від необізнаних працівників, які можуть бути обмануті на витік конфіденційних даних, затвердження транзакцій або спільне використання даних з загрозливими акторами.
Роль команд безпеки у вирішенні проблем штучного інтелекту
Команди безпеки повинні вжити конкретних дій для обмеження сліпих плямів, створених штучними інтелектними агентами. Відділи ІТ повинні насамперед обмежити доступ штучних інтелектних агентів до конфіденційних даних через управління даними і контроль видимості в реальному часі. кроки для досягнення цього включають класифікацію ідентифікаторів штучних інтелектних агентів у системах IAM і моніторинг їхньої діяльності з тією ж суворістю, що й привілейовані облікові записи. Частина видимості йде далі шляхом моніторингу мережевої діяльності для вже реалізованих поведінкових базових ліній, призначених штучним інтелектним агентам. З видимістю ІТ-команди можуть моніторити рух привілейованого доступу і аномалії, не тільки підтримуючи превентивні зусилля, але також прискорюючи заходи ізоляції і відновлення у разі виявлення зловмисного агента.
Крім того, ідентифікуючи нові моделі і тактику, використану в атаках штучних інтелектних агентів, організації можуть оновити свої стратегії захисту і навчити свої системи безпеки визнавати і зупиняти подібні загрози в майбутньому.
Вирішення внутрішніх загроз, створених штучними інтелектними агентами
Реальність полягає в тому, що штучні інтелектні агенти вводять новий внутрішній ризик через свою автономність і зростаючий доступ до конфіденційних систем. Крім того, зловмисні актори будуть продовжувати використовувати штучні інтелектні агенти для більш ефективного використання людських уразливостей через глибокі фейки, фішинг і соціальну інженерію.
Оскільки ця технологія розвивається, підприємства повинні покращити свою видимість у доступі і поведінці штучних інтелектних агентів до їхньої інтеграції у робочі процеси. Це включає інвестиції в проактивне, кругове, моніторинг у реальному часі поряд з робочою силою штучних інтелектних агентів. Хоча штучні інтелектні агенти можуть вирішувати критичні бізнес-блокування і виклики, вони вимагають проактивного підходу для обмеження майбутніх внутрішніх загроз.












