stubs Koda drošības uzlabošana: ieguvumi un riski, izmantojot LLM proaktīvai ievainojamības noteikšanai — Unite.AI
Savienoties ar mums

Domu vadītāji

Koda drošības uzlabošana: ieguvumi un riski, izmantojot LLM proaktīvai ievainojamības noteikšanai

mm

Izdots

 on

gada dinamiskajā ainavā kiberdrošība, kur draudi pastāvīgi attīstās, ir ļoti svarīgi apzināties iespējamās koda ievainojamības. Viens no veidiem, kas ir daudzsološs, ir AI integrācija un Lieli valodu modeļi (LLM). Šo tehnoloģiju izmantošana var veicināt agrāk neatklātu bibliotēku ievainojamību agrīnu atklāšanu un mazināšanu, tādējādi stiprinot lietojumprogrammu vispārējo drošību. Vai, kā mums patīk teikt, “atrast nezināmo nezināmo”.

Izstrādātājiem AI iekļaušana programmatūras ievainojamību noteikšanai un labošanai var palielināt produktivitāti, samazinot laiku, kas pavadīts kodēšanas kļūdu atrašanai un labošanai, palīdzot sasniegt tik ļoti vēlamo “plūsmas stāvokli”. Tomēr ir dažas lietas, kas jāņem vērā, pirms organizācija pievieno LLM saviem procesiem.

Plūsmas atbloķēšana

Viena LLM pievienošanas priekšrocība ir mērogojamība. AI var automātiski ģenerēt daudzu ievainojamību labojumus, samazinot ievainojamību skaitu un nodrošinot racionālāku un paātrinātu procesu. Tas ir īpaši noderīgi organizācijām, kas cīnās ar daudzām drošības problēmām. Ievainojamību apjoms var pārslogot tradicionālās skenēšanas metodes, izraisot aizkavēšanos kritisko problēmu risināšanā. LLM ļauj organizācijām vispusīgi novērst ievainojamības, neaizkavējot resursu ierobežojumus. LLM var nodrošināt sistemātiskāku un automatizētāku veidu, kā samazināt trūkumus un stiprināt programmatūras drošību.

Tas rada otru AI priekšrocību: efektivitāti. Laiks ir būtisks, lai atrastu un novērstu ievainojamības. Programmatūras ievainojamību novēršanas procesa automatizēšana palīdz samazināt ievainojamības logu tiem, kas vēlas tās izmantot. Šī efektivitāte arī veicina ievērojamu laika un resursu ietaupījumu. Tas ir īpaši svarīgi organizācijām ar plašām kodu bāzēm, kas ļauj optimizēt savus resursus un stratēģiskāk sadalīt centienus.

LLM spēja apmācīt plašu datu kopu drošs kods rada trešo priekšrocību: šo ģenerēto labojumu precizitāti. Pareizais modelis balstās uz savām zināšanām, lai nodrošinātu risinājumus, kas atbilst noteiktajiem drošības standartiem, uzlabojot programmatūras vispārējo noturību. Tas samazina risku, ka labošanas procesa laikā tiks ieviestas jaunas ievainojamības. BET šīm datu kopām ir arī iespēja radīt riskus.

Navigācija uzticībā un izaicinājumos

Viens no lielākajiem AI iekļaušanas trūkumiem programmatūras ievainojamību novēršanai ir uzticamība. Modeļus var apmācīt par ļaunprātīgu kodu un apgūt modeļus un darbības, kas saistītas ar drošības apdraudējumiem. Ja modelis tiek izmantots labojumu ģenerēšanai, tas var balstīties uz iegūto pieredzi, netīši piedāvājot risinājumus, kas varētu ieviest drošības ievainojamības, nevis tās novērst. Tas nozīmē, ka apmācības datu kvalitātei ir jāatbilst labojamajam kodam UN jābūt bez ļaunprātīga koda.

LLM var būt arī potenciāls ieviest aizspriedumi labojumos, ko tie rada, radot risinājumus, kas var neaptvert visu iespēju spektru. Ja apmācībai izmantotā datu kopa nav daudzveidīga, modelis var izstrādāt šauras perspektīvas un preferences. Ja tiek uzdots ģenerēt programmatūras ievainojamību labojumus, tas var dot priekšroku noteiktiem risinājumiem salīdzinājumā ar citiem, pamatojoties uz apmācības laikā iestatītajiem modeļiem. Šī novirze var novest pie uz labojumiem vērstas pieejas, kas, iespējams, ignorē netradicionālas, taču efektīvas programmatūras ievainojamību risinājumus.

Lai gan LLM izceļas ar modeļu atpazīšanu un risinājumu ģenerēšanu, pamatojoties uz apgūtajiem modeļiem, tie var pietrūkt, saskaroties ar unikālām vai jaunām problēmām, kas ievērojami atšķiras no apmācības datiem. Dažreiz šie modeļi var pat “halucināts” ģenerējot nepatiesu informāciju vai nepareizu kodu. Ģeneratīvie mākslīgā intelekta un LLM var būt arī nemierīgi, kad runa ir par uzvednēm, kas nozīmē, ka nelielas izmaiņas ievadītajā var novest pie ievērojami atšķirīgas koda izvades. Ļaunprātīgi dalībnieki var arī izmantot šos modeļus, izmantojot tūlītējas injekcijas vai apmācību datu saindēšanās lai radītu papildu ievainojamības vai piekļūtu sensitīvai informācijai. Šie jautājumi bieži prasa dziļu kontekstuālo izpratni, sarežģītas kritiskās domāšanas prasmes un plašākas sistēmas arhitektūras izpratni. Tas uzsver cilvēku kompetences nozīmi rezultātu vadīšanā un apstiprināšanā un to, kāpēc organizācijām LLM būtu jāuzskata par instrumentu cilvēku spēju palielināšanai, nevis to pilnīgai aizstāšanai.

Cilvēka elements joprojām ir būtisks

Cilvēku uzraudzība ir būtiska visā programmatūras izstrādes dzīves ciklā, jo īpaši, ja tiek izmantoti uzlaboti AI modeļi. Kamēr Ģeneratīvais AI un LLM var vadīt nogurdinošus uzdevumus, izstrādātājiem ir jāsaglabā skaidra izpratne par saviem gala mērķiem. Izstrādātājiem ir jāspēj analizēt sarežģītas ievainojamības sarežģījumus, apsvērt plašākas sistēmas sekas un izmantot konkrētai jomai specifiskas zināšanas, lai izstrādātu efektīvus un pielāgotus risinājumus. Šīs specializētās zināšanas ļauj izstrādātājiem pielāgot risinājumus, kas atbilst nozares standartiem, atbilstības prasībām un īpašām lietotāju vajadzībām — faktoriem, kurus, iespējams, nevar pilnībā aptvert tikai AI modeļi. Izstrādātājiem ir arī jāveic rūpīga mākslīgā intelekta ģenerētā koda validācija un pārbaude, lai nodrošinātu, ka ģenerētais kods atbilst augstākajiem drošības un uzticamības standartiem.

LLM tehnoloģijas apvienošana ar drošības testēšanu ir daudzsološs koda drošības uzlabošanas veids. Tomēr būtiska ir līdzsvarota un piesardzīga pieeja, atzīstot gan iespējamos ieguvumus, gan riskus. Apvienojot šīs tehnoloģijas stiprās puses un cilvēku zināšanas, izstrādātāji var proaktīvi identificēt un mazināt ievainojamības, uzlabojot programmatūras drošību un maksimāli palielinot inženieru komandu produktivitāti, ļaujot tām labāk atrast plūsmas stāvokli.

Brūss Snels, kiberdrošības stratēģis, Qwiet AI, informācijas drošības nozarē strādā vairāk nekā 25 gadus. Viņa pieredze ietver administrēšanu, izvietošanu un konsultācijas par visiem tradicionālās IT drošības aspektiem. Pēdējo 10 gadu laikā Brūss ir iesaistījies OT/IoT kiberdrošības jomā (ar GICSP sertifikātu), strādājot pie projektiem, tostarp automobiļu pildspalvu testēšanas, naftas un gāzes cauruļvadu, autonomo transportlīdzekļu datu, medicīnas IoT, viedajām pilsētām un citiem projektiem. Brūss ir bijis arī regulārs lektors kiberdrošības un IoT konferencēs, kā arī vieslektors Vārtonas un Hārvardas Biznesa skolā, kā arī godalgotās aplādes “Hackable?” vadītājs.