Refresh

This website www.unite.ai/sr/enhancing-code-security-the-rewards-and-risks-of-using-llms-for-proactive-vulnerability-detection/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

стуб Побољшање безбедности кода: Награде и ризици коришћења ЛЛМ-а за проактивно откривање рањивости - Уните.АИ
Повежите се са нама

Вође мисли

Побољшање безбедности кода: Награде и ризици коришћења ЛЛМ-а за проактивно откривање рањивости

mm

објављен

 on

У динамичном пејзажу Циберсецурити, где претње стално еволуирају, од виталног је значаја остати испред потенцијалних рањивости у коду. Један од начина који обећава је интеграција АИ и Велики језички модели (ЛЛМс). Коришћење ових технологија може допринети раном откривању и ублажавању рањивости у библиотекама које раније нису откривене, јачајући укупну безбедност софтверских апликација. Или како ми волимо да кажемо, „проналажење непознатих непознатих“.

За програмере, укључивање вештачке интелигенције за откривање и поправку рањивости софтвера има потенцијал да повећа продуктивност смањењем времена утрошеног на проналажење и исправљање грешака кодирања, помажући им да постигну толико жељено „стање протока“. Међутим, постоје неке ствари које треба размотрити пре него што организација дода ЛЛМ својим процесима.

Откључавање тока

Једна од предности додавања ЛЛМ-а је скалабилност. АИ може аутоматски да генерише исправке за бројне рањивости, смањујући заостале рањивости и омогућавајући ефикаснији и убрзанији процес. Ово је посебно корисно за организације које се боре са бројним безбедносним проблемима. Обим рањивости може да преплави традиционалне методе скенирања, што доводи до кашњења у решавању критичних проблема. ЛЛМ омогућавају организацијама да се свеобухватно позабаве рањивостима без ограничења ресурса. ЛЛМ могу да обезбеде систематичнији и аутоматизованији начин за смањење недостатака и јачање безбедности софтвера.

Ово доводи до друге предности АИ: ефикасности. Време је од суштинског значаја када је у питању проналажење и поправљање рањивости. Аутоматизација процеса поправљања софтверских рањивости помаже да се минимизира прозор рањивости за оне који се надају да ће их искористити. Ова ефикасност такође доприноси значајној уштеди времена и ресурса. Ово је посебно важно за организације са обимним базама кодова, омогућавајући им да оптимизују своје ресурсе и стратешки распореде напоре.

Способност ЛЛМ-а да тренирају на огромном скупу података безбедносни код ствара трећу корист: тачност ових генерисаних поправки. Прави модел се ослања на своје знање како би обезбедио решења која су у складу са утврђеним безбедносним стандардима, јачајући укупну отпорност софтвера. Ово минимизира ризик од увођења нових рањивости током процеса поправљања. АЛИ ови скупови података такође имају потенцијал да уведу ризике.

Кретање кроз поверење и изазове

Један од највећих недостатака уградње АИ за отклањање рањивости софтвера је поузданост. Модели се могу обучити за злонамерни код и научити обрасце и понашања повезана са безбедносним претњама. Када се користи за генерисање поправки, модел може да се ослања на своја научена искуства, ненамерно предлажући решења која би могла да уведу безбедносне пропусте уместо да их решавају. То значи да квалитет података за обуку мора бити репрезентативан за код који треба поправити И без злонамерног кода.

ЛЛМ такође могу имати потенцијал за увођење биасес у исправкама које генеришу, што доводи до решења која можда не обухватају читав спектар могућности. Ако скуп података који се користи за обуку није разноврстан, модел може развити уске перспективе и преференције. Када има задатак да генерише исправке за софтверске рањивости, може дати предност одређеним решењима у односу на друга на основу образаца постављених током обуке. Ова пристрасност може довести до приступа усредсређеног на поправке који потенцијално занемарује неконвенционална, али ефикасна решења рањивости софтвера.

Док се ЛЛМ истичу у препознавању образаца и генерисању решења заснованих на наученим обрасцима, они могу заостати када се суоче са јединственим или новим изазовима који се значајно разликују од података о обуци. Понекад ови модели могу чак и „халуцинирати” генерисање лажних информација или нетачног кода. Генеративни АИ и ЛЛМ такође могу бити избирљиви када су у питању упити, што значи да мала промена у ономе што унесете може довести до значајно различитих излаза кода. Злонамерни актери такође могу да искористе ове моделе, користећи брзе ињекције или обуку тровање подацима да створи додатне рањивости или добије приступ осетљивим информацијама. Ова питања често захтевају дубоко разумевање контекста, сложене вештине критичког мишљења и свест о широј архитектури система. Ово наглашава важност људске стручности у вођењу и валидацији резултата и зашто би организације требало да посматрају ЛЛМ као алат за повећање људских способности, а не да их у потпуности замене.

Људски елемент остаје неопходан

Људски надзор је критичан током животног циклуса развоја софтвера, посебно када се користе напредни АИ модели. Док Генеративна АИ и ЛЛМ могу да управљају заморним задацима, програмери морају да задрже јасно разумевање својих крајњих циљева. Програмери треба да буду у стању да анализирају замршеност комплексне рањивости, размотре шире системске импликације и примене знање специфично за домен да би осмислили ефикасна и прилагођена решења. Ова специјализована експертиза омогућава програмерима да прилагоде решења која су у складу са индустријским стандардима, захтевима усклађености и специфичним потребама корисника, факторима који можда неће бити у потпуности обухваћени само АИ моделима. Програмери такође морају да спроведу пажљиву валидацију и верификацију кода који генерише вештачка интелигенција како би осигурали да генерисани код испуњава највише стандарде безбедности и поузданости.

Комбиновање ЛЛМ технологије са тестирањем безбедности представља обећавајући пут за побољшање безбедности кода. Међутим, избалансиран и опрезан приступ је од суштинског значаја, уважавајући и потенцијалне користи и ризике. Комбиновањем предности ове технологије и људске стручности, програмери могу проактивно да идентификују и ублаже рањивости, побољшавајући сигурност софтвера и максимизирајући продуктивност инжењерских тимова, омогућавајући им да боље пронађу своје стање тока.

Бруце Снелл, стратег за сајбер безбедност, Квиет АИ, има преко 25 година у индустрији безбедности информација. Његово искуство укључује администрацију, имплементацију и консултације о свим аспектима традиционалне ИТ безбедности. Последњих 10 година, Бруце се разгранао у ОТ/ИоТ сајбер безбедност (са ГИЦСП сертификацијом), радећи на пројектима укључујући тестирање аутомобила, нафтоводе и гасоводе, податке о аутономним возилима, медицински ИоТ, паметне градове и друге. Брус је такође био редован говорник на конференцијама о сајбер безбедности и Интернету ствари, као и гостујући предавач на Вхартон и Харвард пословној школи, и ко-домаћин награђиваног подкаста „Хацкабле?“.