заглушки Захист розробки штучного інтелекту: усунення вразливостей у Hallucinated Code - Unite.AI
Зв'язатися з нами

Штучний Інтелект

Захист розробки штучного інтелекту: усунення вразливостей галюцинованого коду

mm

опублікований

 on

Дізнайтеся про поточні заходи щодо пом’якшення наслідків, майбутні стратегії та важливість етичних міркувань у надійності коду, створеного ШІ

Серед Штучний інтелект (AI) розробок, домен о розробка програмного забезпечення переживає значну трансформацію. Традиційно розробники покладалися на такі платформи, як переповнення стека знайти рішення для проблем кодування. Проте з початком в Великі мовні моделі (LLM), розробники отримали безпрецедентну підтримку своїх завдань програмування. Ці моделі демонструють надзвичайні можливості для створення коду та вирішення складних проблем програмування, пропонуючи потенціал для оптимізації робочих процесів розробки.

Проте нещодавні відкриття викликали занепокоєння щодо надійності коду, створеного цими моделями. Поява ШІ”галюцинацій” викликає особливе занепокоєння. Ці галюцинації виникають, коли моделі ШІ генерують неправдиву або неіснуючу інформацію, яка переконливо імітує достовірність. Дослідники в Вулкан Кібер висвітлили цю проблему, показавши, як створений штучним інтелектом контент, такий як рекомендація неіснуючих програмних пакетів, може ненавмисно сприяти кібератакам. Ці вразливості вводять нові вектори загроз у ланцюжок постачання програмного забезпечення, дозволяючи хакерам проникати в середовища розробки, маскуючи шкідливий код під законні рекомендації.

Дослідники безпеки провели експерименти, які розкривають тривожну реальність цієї загрози. Представляючи загальні запити від Stack Overflow до таких моделей штучного інтелекту ChatGPT, вони помітили випадки, коли пропонувалися неіснуючі пакети. Подальші спроби опублікувати ці фіктивні пакети підтвердили їх присутність у популярних інсталяторах пакетів, підкресливши безпосередній характер ризику.

Ця проблема стає більш критичною через широко поширену практику повторного використання коду в сучасній розробці програмного забезпечення. Розробники часто інтегрують наявні бібліотеки у свої проекти без ретельної перевірки. У поєднанні з рекомендаціями, створеними штучним інтелектом, ця практика стає ризикованою, потенційно піддаючи програмне забезпечення вразливостям безпеки.

Оскільки розробка на основі ШІ розширюється, галузеві експерти та дослідники наголошують на надійних заходах безпеки. Безпечні методи кодування, суворі перевірки коду та автентифікація джерел коду є важливими. Крім того, отримання артефактів із відкритим кодом від авторитетних постачальників допомагає зменшити ризики, пов’язані з контентом, створеним штучним інтелектом.

Розуміння галюцинованого коду

Галюцинований код стосується фрагментів коду або програмних конструкцій, згенерованих мовними моделями штучного інтелекту, які здаються синтаксично правильними, але є функціонально помилковими або нерелевантними. Ці «галюцинації» виникають через здатність моделей передбачати та генерувати код на основі шаблонів, отриманих із величезних наборів даних. Однак через невід'ємну складність завдань програмування ці моделі можуть створювати код, якому не вистачає справжнього розуміння контексту чи наміру.

Виникнення галюцинованого коду корениться в моделі нейронної мови, як-от архітектури на основі трансформаторів. Ці моделі, як ChatGPT, навчаються на різних сховищах коду, включаючи проекти з відкритим кодом, Stack Overflow та інші ресурси програмування. Завдяки контекстному навчанню модель стає вправною у передбаченні наступної лексеми (слова чи символу) у послідовності на основі контексту, наданого попередніми лексемами. У результаті він визначає загальні моделі кодування, правила синтаксису та ідіоматичні вирази.

Коли з’являється запит із частковим кодом або описом, модель генерує код, доповнюючи послідовність на основі вивчених шаблонів. Однак, незважаючи на здатність моделі імітувати синтаксичні структури, згенерований код може потребувати більшої семантичної узгодженості або виконувати заплановану функціональність через обмежене розуміння моделлю ширших концепцій програмування та контекстних нюансів. Таким чином, незважаючи на те, що галюцинований код на перший погляд може бути схожим на справжній код, він часто виявляє недоліки або невідповідності при детальному розгляді, створюючи проблеми для розробників, які покладаються на рішення, згенеровані ШІ, у робочих процесах розробки програмного забезпечення. Крім того, дослідження показали, що різні великі мовні моделі, в т.ч GPT-3.5-Turbo, GPT-4, Gemini Pro і Coral, демонструють високу тенденцію генерувати галюциновані пакети різними мовами програмування. Це широко поширене явище галюцинації пакетів вимагає від розробників бути обережними, включаючи рекомендації коду, згенерованого штучним інтелектом, у свої робочі процеси розробки програмного забезпечення.

Вплив галюцинованого коду

Галюцинований код створює значні ризики для безпеки, що створює занепокоєння для розробки програмного забезпечення. Одним із таких ризиків є можливість ін’єкції зловмисного коду, коли фрагменти, згенеровані ШІ, ненавмисно створюють уразливості, якими можуть скористатися зловмисники. Наприклад, начебто нешкідливий фрагмент коду може виконувати довільні команди або ненавмисно відкривати конфіденційні дані, що призведе до зловмисних дій.

Крім того, створений ШІ код може рекомендувати незахищені виклики API без належної перевірки автентифікації або авторизації. Цей недогляд може призвести до несанкціонованого доступу, розголошення даних або навіть віддаленого виконання коду, посилюючи ризик порушення безпеки. Крім того, галюцинований код може розкрити конфіденційну інформацію через неправильну практику обробки даних. Наприклад, помилковий запит до бази даних може ненавмисно розкрити облікові дані користувача, що ще більше загострить проблеми безпеки.

Крім наслідків для безпеки, економічні наслідки використання галюцинованого коду можуть бути серйозними. Організації, які інтегрують створені штучним інтелектом рішення у свої процеси розробки, зазнають значних фінансових наслідків через порушення безпеки. Витрати на відновлення, судові збори та шкода репутації можуть швидко зрости. Крім того, ерозія довіри є важливою проблемою, яка виникає через залежність від галюцинованого коду.

Крім того, розробники можуть втратити довіру до систем штучного інтелекту, якщо вони стикаються з частими хибними спрацьовуваннями або вразливими місцями безпеки. Це може мати далекосяжні наслідки, підриваючи ефективність процесів розробки, керованих ШІ, і знижуючи довіру до загального життєвого циклу розробки програмного забезпечення. Тому усунення впливу галюцинованого коду має вирішальне значення для підтримки цілісності та безпеки програмних систем.

Поточні заходи щодо пом'якшення наслідків

Поточні зусилля щодо пом’якшення ризиків, пов’язаних із галюцинованим кодом, передбачають багатогранний підхід, спрямований на підвищення безпеки та надійності рекомендацій коду, згенерованого ШІ. Деякі з них коротко описані нижче:

  • Інтеграція людського контролю в процеси перевірки коду є надзвичайно важливою. Рецензенти з їх тонким розумінням виявляють уразливості та гарантують, що згенерований код відповідає вимогам безпеки.
  • Розробники надають пріоритет розумінню обмежень штучного інтелекту та включають специфічні для домену дані для вдосконалення процесів генерації коду. Цей підхід підвищує надійність коду, створеного ШІ, враховуючи ширший контекст і бізнес-логіку.
  • Крім того, процедури тестування, включаючи комплексні набори тестів і граничне тестування, ефективні для раннього виявлення проблем. Це гарантує ретельну перевірку функціональності та безпеки згенерованого ШІ коду.
  • Подібним чином, аналізуючи реальні випадки, коли рекомендації щодо коду, згенеровані штучним інтелектом, призвели до вразливості системи безпеки або інших проблем, розробники можуть отримати цінну інформацію про потенційні підводні камені та найкращі практики для зменшення ризиків. Ці тематичні дослідження дозволяють організаціям вчитися на минулому досвіді та активно впроваджувати заходи для захисту від подібних ризиків у майбутньому.

Майбутні стратегії забезпечення розвитку ШІ

Майбутні стратегії забезпечення розвитку штучного інтелекту охоплюють передові методи, співпрацю та стандарти, а також етичні міркування.

З точки зору передових методів, акцент потрібно робити на покращенні якості навчальних даних, а не на кількості. Важливо підбирати набори даних, щоб мінімізувати галюцинації та покращити розуміння контексту, черпаючи з різноманітних джерел, таких як сховища коду та проекти реального світу. Змагальне тестування — це ще одна важлива техніка, яка передбачає стрес-тестування моделей штучного інтелекту, щоб виявити вразливості та скерувати вдосконалення шляхом розробки показників надійності.

Подібним чином співпраця між секторами є життєво важливою для обміну думками про ризики, пов’язані з галюцинованим кодом, і розробки стратегій пом’якшення. Створення платформ для обміну інформацією сприятиме співпраці між дослідниками, розробниками та іншими зацікавленими сторонами. Ці колективні зусилля можуть призвести до розробки галузевих стандартів і найкращих практик для безпечної розробки ШІ.

Нарешті, етичні міркування також є невід’ємною частиною майбутніх стратегій. Забезпечення того, щоб розробка ШІ відповідала етичним принципам, допомагає запобігти неправильному використанню та сприяє довірі до систем ШІ. Це передбачає не лише захист коду, створеного штучним інтелектом, але й вирішення ширших етичних наслідків у розробці ШІ.

Bottom Line

Підсумовуючи, поява галюцинованого коду в рішеннях, згенерованих штучним інтелектом, створює серйозні проблеми для розробки програмного забезпечення, починаючи від ризиків для безпеки до економічних наслідків і ерозії довіри. Поточні зусилля щодо пом’якшення зосереджені на інтеграції безпечних практик розробки штучного інтелекту, ретельному тестуванні та підтримці контекстної обізнаності під час генерації коду. Крім того, використання практичних прикладів із реального світу та впровадження проактивних стратегій управління є важливими для ефективного зменшення ризиків.

Заглядаючи вперед, майбутні стратегії мають наголошувати на передових технологіях, співпраці та стандартах, а також на етичних міркуваннях для підвищення безпеки, надійності та моральної цілісності коду, створеного ШІ, у робочих процесах розробки програмного забезпечення.

Доктор Асад Аббас, а Посадовий доцент в Ісламабадському університеті COMSATS, Пакистан, отримав ступінь доктора філософії. з університету штату Північна Дакота, США. Його дослідження зосереджені на передових технологіях, включаючи хмарні, туманні та периферійні обчислення, аналітику великих даних та штучний інтелект. Доктор Аббас зробив значний внесок у публікаціях у авторитетних наукових журналах та на конференціях.