Stumm Acronis SCS a Leading Academics Partner fir AI-baséiert Risiko Scoring Modell z'entwéckelen - Unite.AI
Connect mat eis

Cybersecurity

Acronis SCS a Leading Academics Partner fir AI-baséiert Risk Scoring Model z'entwéckelen

publizéiert

 on

US Cyberschutzfirma Acronis SCS huet sech mat féierende Akademiker zesummegeschafft fir Software duerch d'Benotzung vu kënschtlecher Intelligenz (AI) ze verbesseren. D'Zesummenaarbecht huet en AI-baséiert Risiko Scoring Modell entwéckelt, dee fäeg ass Software Code Schwachstelle quantitativ ze bewäerten. 

Den neie Modell huet eng Verbesserung vun 41% bewisen bei der Detektioun vu gemeinsame Schwachstelle a Beliichtungen (CVEs) wärend senger éischter Etapp vun der Analyse. Déi folgend Tester hunn zu gläich beandrockende Resultater gefouert, an Acronis SCS ass agestallt fir de Modell no senger Fäerdegstellung ze deelen. 

Software Ubidder an ëffentleche Secteur

Ee vun de gréissten Aspekter vun dëser Technologie ass datt se vun anere Software Ubidder an ëffentleche Secteur Organisatiounen benotzt ka ginn. Duerch seng Notzung kann d'Validatioun vu Software Supply Chain verbessert ginn ouni Innovatioun oder kleng Geschäftsméiglechkeet ze verletzen, an et ass e bezuelbare Tool fir dës Organisatiounen. 

Acronis SCS 'AI-baséiert Modell hänkt op engem Deep Learning neuralt Netzwierk dat duerch souwuel Open-Source wéi och propriétaire Quellcode scannt. Et kann onparteiesch quantitativ Risiko-Kären ubidden, déi IT-Administrateuren dann benotze kënnen fir korrekt Entscheedungen ze treffen, déi d'Deployment vun neie Softwarepakete involvéieren an d'Aktualiséierung vun existéierenden. 

D'Firma benotzt Sproochemodell fir Code z'integréieren. Eng Zort Deep Learning, Sproochmodell kombinéiert eng Embeddingschicht mat engem widderhuelende neurale Netzwierk (RNN). Up-Sampling Techniken a Klassifikatioun Algorithmen wéi Boost, zoufälleg Bëscher, an neural Netzwierker gi benotzt fir de Modell ze moossen. 

Dr. Joe Barr ass Acronis SCS 'Senior Director of Research. 

"Mir benotze Sproochemodell fir Code z'integréieren. Sproochmodell ass eng Form vun Deep Learning déi eng Embeddingschicht mat widderhuelenden neuralen Netzwierk (RNN) kombinéiert", sot den Dr. Barr un Unite.AI. 

"Den Input besteet aus Funktiounspaar (Funktioun, Tag) an den Ausgang ass eng Wahrscheinlechkeet P (y = 1 | x) datt eng Funktioun vulnérabel ass fir Hack (Buggy). Well positiv Tags rar sinn, benotze mir verschidde Up-Sampling Techniken a Klassifikatiounsalgorithmen (wéi Boost, zoufälleg Bëscher an neural Netzwierker). Mir moossen "Guttheet" duerch ROC / AUC an engem Prozentsaz Lift (Zuel vun "Schlecht" am Top k Prozenttil, k = 1,2,3,4,5).

Effikass Validatioun Prozess

Eng aner grouss Geleeënheet fir dës Technologie ass seng Fäegkeet fir de Validatiounsprozess vill méi effizient ze maachen. 

"Versuergungskette Validatioun, an engem Validatiounsprozess plazéiert, hëlleft Buggy / vulnérabel Code z'identifizéieren a wäert de Validatiounsprozess méi effizient maachen duerch verschidden Uerderen vun der Gréisst," huet hien weider. 

Wéi mat all AI a Software, ass et entscheedend all potenziell Risiken ze verstoen an ze adresséieren. Wéi gefrot ob et Risiken eenzegaarteg ass fir Open Source Software (OSS), sot den Dr Barr datt et souwuel generesch a spezifesch sinn. 

"Et gi generesch Risiken a spezifesch Risiken," sot hien. "De generesche Risiko enthält "onschëlleg" Bugs am Code, déi vun engem nefaresche Schauspiller exploitéiert kënne ginn. Spezifesch Risiken bezéien sech op e Géigespiller (wéi staatlech gesponsert Agence) déi bewosst Bugs an Open Source aféieren fir iergendwann exploitéiert ze ginn.

Déi éischt Resultater vun der Analyse goufen am publizéiert IEEE Titel "Kombinatoresch Code Klassifikatioun & Vulnerabilitéit. "

 

Den Alex McFarland ass en AI Journalist a Schrëftsteller deen déi lescht Entwécklungen an der kënschtlecher Intelligenz exploréiert. Hien huet mat villen AI Startups a Publikatiounen weltwäit zesummegeschafft.