заглушки Підвищення безпеки коду: переваги та ризики використання LLM для проактивного виявлення вразливостей - Unite.AI
Зв'язатися з нами

Лідери думок

Підвищення безпеки коду: переваги та ризики використання LLM для проактивного виявлення вразливостей

mm

опублікований

 on

У динамічному ландшафті с кібербезпека, де загрози постійно розвиваються, випереджати потенційні вразливості коду є життєво важливим. Одним із перспективних способів є інтеграція ШІ та Великі мовні моделі (LLM). Використання цих технологій може сприяти ранньому виявленню та зменшенню вразливостей у бібліотеках, які не були виявлені раніше, посилюючи загальну безпеку програмних додатків. Або, як ми любимо говорити, «пошук невідомих невідомих».

Для розробників впровадження штучного інтелекту для виявлення та усунення вразливостей програмного забезпечення має потенціал для підвищення продуктивності за рахунок скорочення часу, витраченого на пошук і виправлення помилок кодування, допомагаючи їм досягти бажаного «стану потоку». Однак є деякі моменти, які слід враховувати перед тим, як організація додає LLM до своїх процесів.

Розблокування потоку

Однією з переваг додавання LLM є масштабованість. Штучний інтелект може автоматично генерувати виправлення численних уразливостей, зменшуючи кількість уразливостей і забезпечуючи більш оптимізований і прискорений процес. Це особливо корисно для організацій, які борються з багатьма проблемами безпеки. Обсяг уразливостей може перевантажити традиційні методи сканування, що призведе до затримок у вирішенні критичних проблем. LLM дозволяють організаціям комплексно виправляти вразливості, не стримуючись через обмеження ресурсів. LLM можуть забезпечити більш систематичний і автоматизований спосіб зменшення недоліків і посилення безпеки програмного забезпечення.

Це призводить до другої переваги штучного інтелекту: ефективності. Час має важливе значення, коли справа доходить до пошуку та усунення вразливостей. Автоматизація процесу усунення вразливостей програмного забезпечення допомагає мінімізувати вікно вразливості для тих, хто сподівається ними скористатися. Ця ефективність також сприяє значній економії часу та ресурсів. Це особливо важливо для організацій із великою кодовою базою, що дозволяє їм оптимізувати свої ресурси та більш стратегічно розподіляти зусилля.

Здатність LLM навчатися на величезному наборі даних безпечний код створює третю перевагу: точність цих згенерованих виправлень. Правильна модель спирається на свої знання, щоб надавати рішення, які відповідають встановленим стандартам безпеки, підвищуючи загальну стійкість програмного забезпечення. Це мінімізує ризик появи нових уразливостей під час процесу виправлення. АЛЕ ці набори даних також можуть створювати ризики.

Навігація довірою та проблемами

Одним із найбільших недоліків використання ШІ для усунення вразливостей програмного забезпечення є надійність. Моделі можна навчати шкідливому коду та вивчати моделі та поведінку, пов’язані із загрозами безпеці. Коли модель використовується для створення виправлень, вона може спиратися на свій набутий досвід, ненавмисно пропонуючи рішення, які можуть створювати вразливості безпеки, а не усувати їх. Це означає, що якість навчальних даних має відповідати коду, який потрібно виправити, ТА не містити шкідливого коду.

LLM також можуть мати потенціал для впровадження упередження у виправленнях, які вони створюють, що призводить до рішень, які можуть не охоплювати весь спектр можливостей. Якщо набір даних, який використовується для навчання, не різноманітний, модель може сформувати вузькі перспективи та переваги. Коли йому доручено генерувати виправлення вразливостей програмного забезпечення, він може надавати перевагу певним рішенням над іншими на основі шаблонів, встановлених під час навчання. Це упередження може призвести до підходу, орієнтованого на виправлення, який потенційно ігнорує нетрадиційні, але ефективні способи вирішення проблем уразливості програмного забезпечення.

Незважаючи на те, що магістратури чудово справляються з розпізнаванням шаблонів і створенням рішень на основі вивчених шаблонів, вони можуть зазнати невдачі, коли зіткнуться з унікальними або новими проблемами, які суттєво відрізняються від навчальних даних. Іноді ці моделі можуть навіть «галюцинація” генерування неправдивої інформації або неправильного коду. Генеративний штучний інтелект і LLM також можуть бути метушливими, коли мова заходить про підказки, тобто невелика зміна в тому, що ви вводите, може призвести до суттєво відмінних результатів коду. Зловмисники також можуть скористатися цими моделями, використовуючи швидкі ін’єкції або навчання отруєння даних щоб створити додаткові вразливості або отримати доступ до конфіденційної інформації. Ці проблеми часто вимагають глибокого розуміння контексту, складних навичок критичного мислення та усвідомлення ширшої архітектури системи. Це підкреслює важливість людського досвіду в керуванні та перевірці результатів і чому організації повинні розглядати LLM як інструмент для розширення людських можливостей, а не замінювати їх повністю.

Людський фактор залишається важливим

Людський нагляд має вирішальне значення протягом життєвого циклу розробки програмного забезпечення, особливо при використанні передових моделей ШІ. Поки Генеративний ШІ і LLM можуть виконувати виснажливі завдання, розробники повинні зберігати чітке розуміння своїх кінцевих цілей. Розробники повинні вміти аналізувати тонкощі складної вразливості, розглядати ширші системні наслідки та застосовувати предметні знання для розробки ефективних та адаптованих рішень. Цей спеціалізований досвід дозволяє розробникам адаптувати рішення, які відповідають галузевим стандартам, вимогам відповідності та конкретним потребам користувачів, факторам, які не можуть бути повністю охоплені лише моделями ШІ. Розробникам також необхідно провести ретельну валідацію та перевірку коду, згенерованого ШІ, щоб переконатися, що згенерований код відповідає найвищим стандартам безпеки та надійності.

Поєднання технології LLM із тестуванням безпеки є багатообіцяючим шляхом для підвищення безпеки коду. Однак важливий зважений і обережний підхід, який визнає як потенційні переваги, так і ризики. Поєднуючи сильні сторони цієї технології та людський досвід, розробники можуть завчасно виявляти та пом’якшувати вразливості, підвищуючи безпеку програмного забезпечення та максимізуючи продуктивність команд інженерів, дозволяючи їм краще визначати стан потоку.

Брюс Снелл, стратег з кібербезпеки, Qwiet AI, має понад 25 років роботи в галузі інформаційної безпеки. Його досвід включає адміністрування, розгортання та консультування з усіх аспектів традиційної ІТ-безпеки. Протягом останніх 10 років Брюс займався кібербезпекою OT/IoT (із сертифікацією GICSP), працюючи над такими проектами, як тестування автомобілів, нафто- та газопроводи, автономні дані транспортних засобів, медичний Інтернет речей, розумні міста та інші. Брюс також був постійним доповідачем на конференціях з кібербезпеки та Інтернету речей, а також був запрошеним лектором у Вортоні та Гарвардській бізнес-школі та співведучим відзначеного нагородами подкасту «Hackable?».