никулец Подобрување на безбедноста на кодот: Наградите и ризиците од користењето LLM за проактивно откривање ранливост - Unite.AI
Поврзете се со нас

Мислите лидери

Подобрување на безбедноста на кодот: Наградите и ризиците од користењето LLM за проактивно откривање ранливост

mm

Објавено

 on

Во динамичниот пејзаж на cybersecurity, каде заканите постојано се развиваат, од витално значење е да се остане пред потенцијалните пропусти во кодот. Еден начин што ветува е интеграцијата на вештачката интелигенција и Големи јазични модели (LLMs). Употребата на овие технологии може да придонесе за рано откривање и ублажување на ранливости во библиотеките што не биле откриени претходно, зајакнувајќи ја севкупната безбедност на софтверските апликации. Или како што сакаме да кажеме, „пронаоѓање на непознати непознати“.

За програмерите, инкорпорирањето на вештачката интелигенција за откривање и поправка на пропусти на софтверот има потенцијал да ја зголеми продуктивноста со намалување на времето поминато за наоѓање и поправање на грешките во кодирањето, помагајќи им да ја постигнат толку посакуваната „состојба на проток“. Сепак, има некои работи што треба да се земат предвид пред организацијата да додаде LLM на своите процеси.

Отклучување на протокот

Една од придобивките од додавањето на LLM е приспособливоста. Вештачката интелигенција може автоматски да генерира поправки за бројни пропусти, намалувајќи го заостатокот на ранливости и овозможувајќи порационализиран и побрз процес. Ова е особено корисно за организациите кои се борат со мноштво безбедносни проблеми. Обемот на ранливости може да ги надмине традиционалните методи на скенирање, што доведува до одложување во решавањето на критичните прашања. LLM им овозможуваат на организациите сеопфатно да ги решат пропустите без да бидат задржани од ограничувањата на ресурсите. LLM може да обезбеди посистематски и автоматизиран начин за намалување на недостатоците и зајакнување на безбедноста на софтверот.

Ова води до втора предност на вештачката интелигенција: Ефикасност. Времето е од суштинско значење кога станува збор за пронаоѓање и поправање на пропустите. Автоматизирањето на процесот на поправање на пропустите на софтверот помага да се минимизира прозорецот на ранливост за оние кои се надеваат дека ќе ги искористат. Оваа ефикасност, исто така, придонесува за значително заштеда на време и ресурси. Ова е особено важно за организациите со широки бази на кодови, овозможувајќи им да ги оптимизираат своите ресурси и да ги распределат напорите постратешки.

Способноста на LLM да се обучуваат на огромна база на податоци од безбеден код ја создава третата придобивка: точноста на овие генерирани поправки. Вистинскиот модел се потпира на своето знаење за да обезбеди решенија кои се усогласени со воспоставените безбедносни стандарди, зајакнувајќи ја севкупната еластичност на софтверот. Ова го минимизира ризикот од воведување нови пропусти за време на процесот на поправање. НО тие збирки на податоци исто така имаат потенцијал да воведат ризици.

Навигација во доверба и предизвици

Еден од најголемите недостатоци на инкорпорирањето на вештачката интелигенција за да се поправат пропустите на софтверот е доверливоста. Моделите можат да се обучуваат за злонамерен код и да научат обрасци и однесувања поврзани со безбедносните закани. Кога се користи за генерирање поправки, моделот може да се потпира на своите научени искуства, ненамерно предлагајќи решенија кои би можеле да воведат безбедносни пропусти наместо да ги решаваат. Тоа значи дека квалитетот на податоците за обуката мора да биде репрезентативен на кодот што треба да се поправи И без злонамерен код.

LLMs исто така може да имаат потенцијал да воведат пристрасност во поправките што ги генерираат, што доведува до решенија кои можеби не го опфаќаат целиот спектар на можности. Ако сетот на податоци што се користи за обука не е разновиден, моделот може да развие тесни перспективи и преференции. Кога има задача да генерира поправки за пропусти на софтверот, може да фаворизира одредени решенија пред други засновани на шемите поставени за време на обуката. Оваа пристрасност може да доведе до поправен-центричен пристап кој се потпира на кој потенцијално ги занемарува неконвенционалните, но ефективни резолуции на пропустите на софтверот.

Додека LLM се истакнуваат во препознавањето на шаблоните и генерирањето решенија засновани на научените обрасци, тие може да паднат кога ќе се соочат со уникатни или нови предизвици кои значително се разликуваат од податоците за обуката. Понекогаш овие модели може дури и „халуцинира” генерирање лажни информации или неточен код. Генеративните AI и LLM исто така може да бидат претрупан кога станува збор за инструкции, што значи дека мала промена во она што го внесувате може да доведе до значително различни излези на кодот. Злонамерните актери исто така може да ги искористат предностите на овие модели, користејќи брзи инјекции или обука труење со податоци да создаде дополнителни пропусти или да добие пристап до чувствителни информации. Овие прашања често бараат длабоко контекстуално разбирање, сложени вештини за критичко размислување и свесност за пошироката системска архитектура. Ова ја нагласува важноста на човечката експертиза во водењето и потврдувањето на резултатите и зошто организациите треба да ги гледаат LLM како алатка за зголемување на човечките способности наместо целосно да ги заменат.

Човечкиот елемент останува суштински

Човечкиот надзор е критичен во текот на животниот циклус на развој на софтвер, особено кога се користат напредни модели со вештачка интелигенција. Додека Генеративна АИ и LLM можат да управуваат со мачни задачи, програмерите мора да задржат јасно разбирање за нивните крајни цели. Програмерите треба да бидат способни да ги анализираат сложеноста на сложената ранливост, да ги земат предвид пошироките импликации на системот и да применат знаење специфични за доменот за да осмислат ефективни и приспособени решенија. Оваа специјализирана експертиза им овозможува на програмерите да приспособат решенија што се усогласуваат со индустриските стандарди, барањата за усогласеност и специфичните потреби на корисниците, фактори кои можеби нема да бидат целосно опфатени само од моделите со вештачка интелигенција. Програмерите, исто така, треба да спроведат прецизна валидација и верификација на кодот генериран од вештачката интелигенција за да се осигураат дека генерираниот код ги исполнува највисоките стандарди за безбедност и доверливост.

Комбинирањето на LLM технологијата со безбедносното тестирање претставува ветувачка авенија за подобрување на безбедноста на кодот. Сепак, балансиран и внимателен пристап е од суштинско значење, признавајќи ги и потенцијалните придобивки и ризици. Со комбинирање на јаките страни на оваа технологија и човечката експертиза, програмерите можат проактивно да ги идентификуваат и ублажат пропустите, да ја подобрат безбедноста на софтверот и да ја максимизираат продуктивноста на инженерските тимови, овозможувајќи им подобро да ја пронајдат нивната состојба на проток.

Брус Снел, стратег за сајбер безбедност, Qwiet AI, има над 25 години во индустријата за безбедност на информации. Неговото потекло вклучува администрација, распоредување и консултации за сите аспекти на традиционалната ИТ безбедност. Во изминатите 10 години, Брус се разграни во OT/IoT сајбер-безбедност (со GICSP сертификат), работејќи на проекти вклучувајќи тестирање на автомобилски пенкала, нафтоводи и гасоводи, податоци за автономни возила, медицински IoT, паметни градови и други. Брус, исто така, беше редовен говорник на конференции за сајбер-безбедност и IoT, како и гостин предавач на бизнис школата Вартон и Харвард, и ко-домаќин на наградуваниот подкаст „Hackable?“.