Лідери думок
На ШІ Терпіння є чеснотою

За майже два роки після запуску ChatGPT генеративний штучний інтелект пройшов цілий цикл технологічного ажіотажу, від високих очікувань, що змінили суспільство, до підживлення нещодавньої корекції фондового ринку. Але особливо ажіотаж у галузі кібербезпеки Генеративний ШІ (genAI) все ще виправдано; просто це може зайняти більше часу, ніж очікували інвестори та аналітики, щоб повністю змінити сектор.
Найяскравіший, останній ознака зміни в ажіотажі був на Конференція Black Hat США на початку серпня, на якій генеративний ШІ відіграв дуже незначну роль у запусках продуктів, демонстраціях та загальному створенні ажіотажу. Порівняно з конференцією RSA лише чотирма місяцями раніше, на якій були присутні ті ж постачальники, увага Black Hat до ШІ була незначною, що могло б обґрунтовано змусити нейтральних спостерігачів вважати, що галузь рухається вперед або що ШІ став товаром. Але це не зовсім так.
Ось що я маю на увазі. Трансформаційні переваги застосування генеративного штучного інтелекту в індустрії кібербезпеки, ймовірно, не будуть отримані від загальних чат-ботів або швидкого накладання ШІ на моделі обробки даних. Це будівельні блоки для більш просунутих і ефективних варіантів використання, але зараз вони не спеціалізуються на індустрії безпеки, і, як наслідок, не створюють нову хвилю оптимальних результатів безпеки для клієнтів. Скоріше, справжня трансформація, яку штучний інтелект забезпечить для індустрії безпеки, відбудеться, коли моделі штучного інтелекту будуть налаштовані та налаштовані для випадків використання безпеки.
Поточні загальні варіанти використання штучного інтелекту в безпеці в основному використовують оперативне проектування та Пошуково-доповнена генерація, яка є структурою штучного інтелекту, яка по суті дозволяє великі мовні моделі (LLM), щоб використовувати додаткові ресурси даних, окрім своїх навчальних даних, поєднуючи найкращі частини генеративного ШІ та пошуку бази даних. Користь від них значно відрізняється залежно від варіанту використання та того, наскільки добре існуюча обробка даних постачальника підтримує варіант використання; привіт, це не «магія». Це стосується інших програм, які вимагають приватних даних і досвіду, яких немає в Інтернеті, таких як медична діагностика та юридична робота. Здається ймовірним, що компанії налаштуватимуть конвеєри обробки даних і системи доступу до даних для оптимізації генеративних варіантів використання ШІ. Крім того, компанії, що займаються генеруванням штучного інтелекту, заохочують розробку спеціально налаштованих моделей, хоча ще належить побачити, наскільки добре це працюватиме для тих випадків, коли якість і деталізація важливі.
Однак є кілька причин, чому ця спеціалізація потрібен час, щоб набути чинності в галузі безпеки. Однією з головних причин є те, що для налаштування цих моделей під час навчання потрібно багато людей, які є експертами в галузі кібербезпеки та штучного інтелекту, двох галузей, які намагаються найняти достатньо талантів. Згідно з даними, галузі кібербезпеки не вистачає приблизно чотирьох мільйонів професіоналів у всьому світі Всесвітнього Економічного Форуму (World Economic Forum), і за оцінками Reuters, найближчим часом буде 50% розрив у наймі на посади, пов’язані зі штучним інтелектом.
Без великої кількості експертів точна робота, необхідна для адаптації моделей ШІ для роботи в контексті безпеки, буде сповільнена. Витрати на наукові дослідження даних, необхідні для навчання цих моделей, також обмежують кількість організацій, які мають ресурси для проведення досліджень спеціального моделювання ШІ. Потрібні мільйони доларів, щоб забезпечити обчислювальну потужність, яка потрібна для передових моделей ШІ, і ці гроші мають звідкись надходити. Навіть якщо організація має ресурси та команду, щоб стимулювати дослідження щодо налаштування штучного інтелекту, фактичний прогрес не відбувається миттєво. Потрібен час, щоб зрозуміти, як найкраще розширити моделі штучного інтелекту, щоб принести користь фахівцям-практикам і аналітикам безпеки, і, як і з будь-яким новим інструментом, буде крива навчання, коли будуть представлені процесори природної мови, чат-боти та інші інтеграції з підтримкою штучного інтелекту. .
Generative AI все ще готовий змінити світ кібербезпеки на нову парадигму, де наступальні можливості AI, якими користуються супротивники та суб’єкти загрози, конкуруватимуть з моделями AI постачальників безпеки, створеними для виявлення та моніторингу загроз. Дослідження та розробки, необхідні для підживлення цієї зміни, просто займуть трохи більше часу, ніж передбачала загальна технологічна спільнота.