Лідери думок
Про штучний інтелект патієнс є добродійністю
За майже два роки з моменту запуску ChatGPT, генеративний штучний інтелект пройшов повний технологічний цикл гіперу, від високих, зміна суспільства очікувань до палива недавнього корекції ринку акцій. Але всередині галузі кібербезпеки зокрема, збудження навколо Generative AI (генеративний штучний інтелект) все ще виправдане; це просто може зайняти більше часу, ніж інвестори та аналітики очікували, щоб змінити галузь повністю.
Найясніший, найсвіжіший знак зсуву гіперу був на Конференції Black Hat USA на початку серпня, на якій генеративний штучний інтелект відігравав дуже маленьку роль у запусках продуктів, демонстраціях та загальному створенні ажіотажу. У порівнянні з Конференцією RSA лише чотири місяці раніше, на якій були представлені ті самі виробники, фокус Black Hat на штучному інтелекті був незначним, що могло б привести нейтральних спостерігачів до висновку, що галузь рухається далі або що штучний інтелект став комодитизованим. Але це не зовсім так.
Це те, що я маю на увазі. Трансформативна користь застосування генеративного штучного інтелекту всередині галузі кібербезпеки, ймовірно, не прийде з загальних чат-ботів або швидкого накладення штучного інтелекту на моделі обробки даних. Це є будівельними блоками для більш просунутих та ефективних випадків використання, але зараз вони не спеціалізовані для галузі безпеки, і в результаті не забезпечують нової хвилі оптимальних результатів безпеки для клієнтів. Натомість, справжня трансформація, яку штучний інтелект надасть галузі безпеки, відбудеться, коли моделі штучного інтелекту будуть налаштовані та налаштовані для випадків використання безпеки.
Поточні загальні випадки використання штучного інтелекту в галузі безпеки в основному використовують prompt engineering та Retrieval-Augmented Generation, який є каркасом штучного інтелекту, що фактично дозволяє більшим мовним моделям (LLM) використовувати додаткові джерела даних поза їх тренувальними даними, поєднуючи найкращі частини генеративного штучного інтелекту та бази даних. Користь цих випадків використання сильно залежить від випадку використання та того, наскільки добре підтримує виробник обробку даних випадок використання; вони не є “магічними”. Це також справедливо для інших застосунків, які вимагають пропріетарних даних та експертизи, яка не поширена в Інтернеті, таких як медична діагностика та юридична робота. Здається, що компанії будуть регулювати канали обробки даних та системи доступу до даних, щоб оптимізувати випадки використання генеративного штучного інтелекту. Також компанії, що займаються генеративним штучним інтелектом, заохочують розвиток спеціально налаштованих моделей, хоча залишається невідомим, наскільки добре це буде працювати для випадків, де якість та деталізація є важливими.
Є кілька причин, чому ця спеціалізація займе час, щоб проявитися в галузі безпеки, хоча. Одною з основних причин є те, що налаштування цих моделей вимагає багатьох людей під час тренування, які є експертами у галузі кібербезпеки та штучного інтелекту, двох галузей, які борються за те, щоб найняти достатньо талановитих фахівців. Галузь кібербезпеки не вистачає близько чотирьох мільйонів фахівців у світі, згідно з Світовим економічним форумом, а Reuters оцінює, що буде розрив у наборі працівників на 50% для посад, пов’язаних зі штучним інтелектом, у найближчому майбутньому.
Без великої кількості експертів, точна робота, необхідна для налаштування моделей штучного інтелекту для роботи в контексті безпеки, буде сповільнена. Вартість виконання необхідної науки про дані для тренування цих моделей також обмежує кількість організацій, які мають ресурси для проведення досліджень у сфері налаштування штучного інтелекту. Це потрібно мільйони доларів, щоб дозволити потужність обробки, яку вимагають моделі штучного інтелекту останньої генерації, і ці гроші повинні прийти з якогось джерела. Навіть коли організація має ресурси та команду для проведення досліджень у сфері налаштування штучного інтелекту, фактичний прогрес не відбувається за одну ніч. Це займе час, щоб визначити, як найкраще доповнити моделі штучного інтелекту для вигоди фахівців та аналітиків безпеки, і як і з будь-яким новим інструментом, буде навчальна крива, коли будуть введені природні процесори мови, чат-боти та інші інтеграції, що підтримуються штучним інтелектом.
Генеративний штучний інтелект все ще готовий змінити світ кібербезпеки на новий парадигму, де наступальні можливості штучного інтелекту, які використовують противники та учасники загроз, будуть конкурувати з моделями штучного інтелекту, побудованими постачальниками безпеки для виявлення та моніторингу загроз. Дослідження та розвиток, необхідні для палива цього зсуву, просто займе трохи більше часу, ніж загальна технологічна спільнота очікувала.












