stub Cybersäkerhetsexperter försvarar sig från AI Cyberattacks - Unite.AI
Anslut dig till vårt nätverk!

Cybersäkerhet

Cybersäkerhetsexperter försvarar sig från AI-cyberattacker

mm
Uppdaterad on

Alla med goda avsikter är inte inställda på att använda fördelarna med artificiell intelligens. Cybersäkerhet är verkligen ett av de områden där både de som försöker försvara ett visst cybersystem och de som försöker attackera det använder den mest avancerade tekniken.

I sin analys av ämnet, World Economic Forum (WEF) nämner ett exempel när i mars 2019 "den VD för ett stort energiföretag sanktionerade den brådskande överföringen av 220,000 XNUMX euro till vad han trodde var kontot för en ny östeuropeisk leverantör efter ett samtal han trodde vara tillsammans med VD:n för sitt moderbolag. Inom några timmar hade pengarna passerat genom ett nätverk av konton i Latinamerika till misstänkta brottslingar som hade använt artificiell intelligens (AI) för att på ett övertygande sätt efterlikna vd:ns röst.” För sin del, forbes nämner ett exempel när "två sjukhus i Ohio och West Virginia avvisade patienter på grund av en ransomware-attack som ledde till ett systemfel. Sjukhusen kunde inte behandla några akuta patientförfrågningar. Därför skickade de inkommande patienter till närliggande sjukhus.”

Detta hot mot cybersäkerhet är verkligen orsaken varför Equifax och World Economic Forum sammankallade invigningen Future Series: Cybercrime 2025. Globala cybersäkerhetsexperter från den akademiska världen, myndigheter, brottsbekämpande myndigheter och den privata sektorn kommer att träffas i Atlanta, Georgia för att se över de möjligheter som AI kan ge dem inom cybersäkerhetsområdet. Capgemini Research Institute kom också med en rapport som drar slutsatsen att det är absolut nödvändigt att bygga upp cybersäkerhetsförsvar med AI för praktiskt taget alla organisationer.

I sin analys, WEF, indikerade fyra utmaningar för att förhindra användningen av AI vid cyberbrottslighet. Den första är den ökande sofistikeringen av angripare - attackvolymen kommer att öka, och "AI-aktiverad teknik kan också förbättra angripares förmåga att bevara både sin anonymitet och avstånd från sina offer i en miljö där det redan är en utmaning att tillskriva och utreda brott.”

Det andra är asymmetrin i målen – medan försvarare måste ha 100 % framgång, behöver angriparna bara lyckas en gång. "Medan AI och automation minskar variationen och kostnaderna, förbättrar skalan och begränsar fel, kan angripare också använda AI för att vända balansen.”

Det tredje är det faktum att som "organisationer fortsätter att växa, så även storleken och komplexiteten på deras teknik- och dataområden, vilket innebär att angripare har fler ytor att utforska och utnyttja. För att ligga före angripare kan organisationer använda avancerad teknik som AI och automation för att hjälpa till att skapa försvarbara "choke points" snarare än att sprida insatser lika över hela miljön."

Den fjärde skulle vara att uppnå den rätta balansen mellan de möjliga riskerna och faktiska "operativa möjliggörande" för försvararna. WEF anser att "säkerhetsteam kan använda ett riskbaserat tillvägagångssätt, genom att upprätta styrprocesser och väsentlighetströsklar, informera operativa ledare om deras cybersäkerhetsställning och identifiera initiativ för att kontinuerligt förbättra den." Genom sitt program för Future Series: Cybercrime 2025 försöker WEF och dess partners "identifiera de effektiva åtgärder som behövs för att mildra och övervinna dessa risker."

Forbes har för sin del identifierat fyra steg för direkt användning av AI i cybersäkerhet utarbetade av deras bidragsgivare Naveen Joshi och presenterade i nedanstående grafik:

Hur som helst är det säkert att både försvarare och angripare inom cybersäkerhetsområdet kommer att fortsätta att utveckla sin användning av artificiell intelligens när själva tekniken når ett nytt stadium av komplexitet.

 

Tidigare diplomat och översättare för FN, för närvarande frilansjournalist/skribent/forskare, med fokus på modern teknik, artificiell intelligens och modern kultur.