Connect with us

3 Столпи Штучного Інтелекту в Кібербезпеці

Кібербезпека

3 Столпи Штучного Інтелекту в Кібербезпеці

mm

Штучний інтелект (AI) захопив галузь кібербезпеки, оскільки постачальники всіх видів працюють над інтеграцією AI у свої рішення. Але стосунки між AI та безпекою полягають не лише у впровадженні можливостей AI – це також про те, як і нападники, і захисники використовують цю технологію для зміни обличчя сучасного ландшафту загроз. Це також про те, як ці моделі AI розробляються, оновлюються та захищаються. Сьогодні існує три основні столпи AI у кібербезпеці – і оскільки все більше організацій звертається до постачальників безпеки з рішеннями, заснованими на AI, усе важливіше зрозуміти, як цю технологію насправді використовують.

Столп #1: Захист Можливостей AI

Оскільки采用 рішень, заснованих на AI, продовжує стрімко зростати, підприємства усе більше визнають, що захист цих рішень повинен бути пріоритетом. Рішення, засновані на AI, тренуються на величезних обсягах даних (чим більше даних, тим точніше рішення), що означає, що нападник, який вдасться порушити одну з цих рішень, може опинитися у володінні скарбницею даних клієнтів, інтелектуальної власності, фінансової інформації та інших цінних активів. З огляду на те, що нападники усе частіше використовують ці вектори атаки, перша лінія захисту для організацій полягає у їхній здатності захищати моделі AI, які вони використовують у повсякденній діяльності.

На щастя, ця проблема не є секретом – насправді ринок рішень, спеціально розроблених для захисту моделей AI, стрімко зростає, з значною кількістю стартапів, що з’явилися за останні рік або два. Також важливо пам’ятати, що хоча рішення, такі як генераційний AI, відносно нові, AI існує вже досить давно – і більшість рішень AI мають певний рівень безпеки вбудованої у них. Тім часом організації повинні завжди приймати будь-які додаткові заходи для захисту себе та своїх даних, і немає нестачі рішень третіх сторін, які можуть допомогти захистити трубопроводи AI від нападників, які шукають легку здобич.

Столп #2: зупинка Нападників, які Використовують AI

З огляду на те, що AI стає усе більш доступним, не повинно бути великим сюрпризом, що нападники використовують цю технологію для своїх цілей. Як AI дозволяє організаціям оптимізувати свої операції та автоматизувати нудні та повторювані процеси, так воно також допомагає нападникам збільшувати масштаб та складність своїх атак. У практичному сенсі нападники не використовують AI для проведення “нових” типів атак – принаймні поки що. Але ця технологія робить їхню участь у існуючих тактиках атак на надзвичайно високому рівні.

Наприклад, фішингові атаки – це гра чисел – якщо лише 1% одержувачів клікне на шкідливий посилання, це перемога для нападника. Але з допомогою AI нападники можуть застосувати безпрецедентний рівень персоналізації до своїх фішингових електронних листів, роблячи їх більш переконливими – і небезпечними – ніж будь-коли. Що гірше, після того, як організація була скомпрометована (через фішинг або інші засоби), нападник може використати AI для аналізу даних про відкриття та створення процесу прийняття рішень, який робить пропагацію легшою та більш прихованим. Чим більше нападники можуть автоматизувати пропагацію, тим швидше вони можуть досягти своєї мети – часто до того, як традиційні засоби безпеки навіть зможуть ідентифікувати атаку, не кажучи вже про ефективну реакцію на неї.

Це означає, що організаціям потрібно бути готовими – і це починається з наявності рішень, які можуть ідентифікувати та захистити від цих атак високого рівня та складності. Хоча багато підприємств можуть мати рішення для захисту від фішингових атак, атак малвари та інших векторів, важливо перевірити ці рішення, щоб переконатися, що вони залишаються ефективними, оскільки атаки стають частішими та складнішими. Лідери з безпеки повинні пам’ятати, що це не лише про наявність правильних рішень – це про те, щоб переконатися, що вони працюють так, як очікується, проти реальних загроз.

Столп #3: Використання AI у Продуктах Кібербезпеки

Останній столп – це той, з яким спеціалісти з безпеки будуть найбільш знайомі: постачальники кібербезпеки, які використовують AI у своїх продуктах. Одним з тих, у чому AI найкраще, є ідентифікація закономірностей, що робить його ідеальним для ідентифікації підозрілої або аномальної діяльності. Доміруюча кількість постачальників розгортає AI у своїх рішеннях виявлення, і багато з них також використовують AI для автоматизації певних елементів виправлення. У минулому боротьба з низькорівневими загрозами була нудною, але необхідною складовою кібербезпеки. Сьогодні AI може автоматизувати більшу частину цього процесу, займаючись незначними інцидентами автоматично та дозволяючи спеціалістам з безпеки зосередитися лише на тих загрозах, які вимагають прямої уваги.

Це додало значної цінності до широкого спектра рішень безпеки, але це не відбувається у вакуумі. Моделі AI потрібно підтримувати, і важливо працювати з постачальниками, які мають репутацію постійного оновлення своїх моделей. Перевірка потенційних партнерів з безпеки є критичною, і організаціям потрібно знати, як постачальники працюють з AI: звідки беруться їхні дані, як вони уникнули проблем, таких як вбудований біяс, та інші фактори можуть (і повинні) вплинути на рішення про співпрацю з певним постачальником. Хоча рішення, засновані на AI, набувають популярності майже в кожній галузі, вони не всі створені рівними. Організаціям потрібно переконатися, що вони працюють з партнерами з безпеки, які розуміють усі тонкощі технології, а не з постачальниками, які бачать “AI” просто як маркетинговий слоган.

Підхід до AI з Упевненістю

Оскільки AI стає усе більш універсальним у ландшафті кібербезпеки, для організацій важливо ознайомитися зі способами, якими ця технологія насправді використовується. Це означає розуміння як того, як AI може покращити рішення безпеки, так і того, як він може допомогти нападникам створити більш складні атаки. Це також означає визнання того, що дані, на яких зараз будуються моделі AI, потрібно захистити – і робота з постачальниками, які пріоритезують безпечне та захищене розгортання цієї технології, є критичною. Зрозумівши три основні столпи AI та безпеки, організації можуть забезпечити собі базові знання, необхідні для підходу до цієї технології з упевненістю.

Nir Loya-Dahan є VP Product для Cymulate. Nir є ветераном стартапу з десятирічним досвідом у сфері кібербезпеки, включаючи 7 років у військовій розвідці Ізраїлю. Він має ступінь бакалавра економіки Reichmnn University та заснував програму для навчання студентів стати молодшими менеджерами продукту.

Розкриття інформації про рекламу: Unite.AI дотримується суворих редакційних стандартів, щоб надавати читачам точну інформацію та новини. Ми можемо отримувати компенсацію, якщо ви переходите за посиланнями на продукти, які ми оглядали.