Anslut dig till vÄrt nÀtverk!

Tanke ledare

Styrelserumsklyftan: Varför IT-chefer kĂ€mpar med att prata om djupförfalskningar – och hur man ska formulera den

mm

CybersĂ€kerhet gĂ„r in i en avgörande period, driven av det utbredda införandet av AI av företag, myndigheter och individer. 82% Av företag i USA som antingen anvĂ€nder eller utforskar anvĂ€ndningen av AI i sin verksamhet, lĂ„ser organisationer upp nya effektivitetsvinster, men det gör Ă€ven angripare. Samma verktyg som driver innovation gör det ocksĂ„ möjligt för hotande aktörer att generera syntetiskt innehĂ„ll med alarmerande lĂ€tthet och realism. Denna nya verklighet har infört betydande utmaningar, inklusive möjligheten att skapa syntetiskt innehĂ„ll (bilder, ljud och video) och skadliga deepfakes (manipulerat ljud, video eller bild som anvĂ€nds för att utge sig för att vara en verklig person) med oövertrĂ€ffad hastighet och sofistikering. Med bara nĂ„gra fĂ„ klick kan vem som helst med tillgĂ„ng till en dator och internet manipulera bilder, ljud och videor, vilket introducerar misstro och tvivel i informationsandan. 

I en tid dĂ€r företag, myndigheter och medieorganisationer Ă€r beroende av digital kommunikation för sin försörjning finns det inget utrymme för misstag i att underskatta riskerna som djupförfalskningar, syntetiska identitetsbedrĂ€gerier och personifieringsattacker utgör. Dessa hot Ă€r inte lĂ€ngre hypotetiska – ekonomiska förluster frĂ„n djupförfalskade företagsbedrĂ€gerier överskrids. 200 miljoner dollar enbart under första kvartalet 1, vilket understryker problemets omfattning och brĂ„dska. Ett nytt hotlandskap krĂ€ver en ny strategi för cybersĂ€kerhet, och ITSO:er mĂ„ste agera snabbt för att sĂ€kerstĂ€lla att deras företag förblir sĂ€kert. Att be om nytt kapital och tydligt kommunicera en organisations hotexponering till en styrelse med varierande kunskapsnivĂ„er om hur allvarligt hotet frĂ„n deepfakes Ă€r kan dock vara skrĂ€mmande. I takt med att deepfake-attacker fortsĂ€tter att utvecklas och ta form mĂ„ste varje ITSO ligga i framkant nĂ€r det gĂ€ller att föra denna diskussion till styrelserummet. 

Nedan följer ett ramverk för IT-chefer och chefer för att underlĂ€tta intressentdialoger pĂ„ styrelse-, organisations- och samhĂ€llsnivĂ„. 

AnvÀnd bekanta ramverk: Deepfakes som avancerad social ingenjörskonst

Styrelser har blivit konditionerade att tÀnka pÄ cybersÀkerhet i vÀlbekanta termer: nÀtfiskemejl, ransomware-attacker och den hotande frÄgan om huruvida deras företag kommer att bli intrÄngade. Den instÀllningen formar hur de prioriterar hot och var de fördelar sÀkerhetsbudgetar. Men nÀr det gÀller AI-genererat innehÄll, sÀrskilt deepfakes, finns det ingen inbyggd referenspunkt. Att framstÀlla deepfakes som ett fristÄende, nytt hot leder ofta till förvirring, skepticism eller passivitet.

För att bekĂ€mpa detta bör IT-chefer förankra samtalet i nĂ„got som styrelser redan förstĂ„r: social ingenjörskonst. I grund och botten Ă€r deepfake-hotet inte helt nytt; det Ă€r en utvecklad, farligare form av nĂ€tfiske som har funnits inom branschen i Ă„ratal och fortsĂ€tter att vara den frĂ€msta. attack vektor av social ingenjörskonst. Styrelser inser redan att nĂ€tfiske Ă€r en trovĂ€rdig risk, och de Ă€r bekvĂ€ma med att godkĂ€nna resurser för att försvara sig mot den. I mĂ„nga avseenden representerar djupförfalskningar en mer övertygande, mer skalbar och mer kapabel form av social ingenjörskonst, som riktar sig mot bĂ„de organisationer och individer med förödande precision. 

Inramning deepfakes PĂ„ sĂ„ sĂ€tt kan IT-chefer utnyttja befintlig utbildning, budgetposter och institutionellt muskelminne. IstĂ€llet för att be om nya resurser kan de omformulera begĂ€ran till en utveckling av redan godkĂ€nda sĂ€kerhetsinvesteringar. Ju mer IT-chefer kan luta sig mot denna berĂ€ttelse, desto mer sannolikt Ă€r det att de fĂ„r resurser för att ta itu med denna större, omedelbara frĂ„ga. 

Förankra risken i realism, inte sensationalism

Att peka pĂ„ verkliga exempel Ă€r ett bra sĂ€tt att öka en styrelses förstĂ„else för de effekter deepfake-hot kan ha pĂ„ organisationer. Det Ă€r dock viktigt att övervĂ€ga vilka exempel IT-chefer presenterar för styrelser, eftersom de kan ha motsatt effekt. ÖkĂ€nda historier som BankbedrĂ€geriet pĂ„ vĂ€rt 25 miljoner dollar i Hongkong skapar bra rubriker, men de kan slĂ„ tillbaka i styrelserummet. Dessa extrema exempel kĂ€nns ofta avlĂ€gsna eller orealistiska, vilket skapar en kĂ€nsla av att "nĂ„got sĂ„ katastrofalt aldrig skulle kunna hĂ€nda oss". Denna partiskhet slĂ„r in omedelbart och tar bort kĂ€nslan av att det Ă€r viktigt att investera i skydd. 

IstÀllet bör IT-chefer anvÀnda mer relaterbara scenarier för att visa hur denna risk kan utspela sig internt, sÄsom chefsutövning eller intervjufusk.

I ett fall, Nordkoreanska hotaktörer skapade ett falskt Zoom-samtal med AI-genererade chefer för att lura en kryptoanstĂ€lld att ladda ner skadlig kod för att komma Ă„t kĂ€nslig företagsinformation med avsikt att stjĂ€la kryptovaluta. I slutĂ€ndan kunde hackarna inte fĂ„ Ă„tkomst, men hotet som dessa attacker utgör mot ett varumĂ€rkes integritet borde vara en vĂ€ckarklocka för styrelser inom företaget. 

En annan vĂ€xande taktik innebĂ€r falska jobbkandidater anvĂ€nder AI-genererade identiteter och djupförfalskade autentiseringsuppgifter för att infiltrera företagsorganisationer. Dessa individer agerar ofta pĂ„ uppdrag av amerikanska motstĂ„ndare som Ryssland, Nordkorea eller Kina, i jakt pĂ„ tillgĂ„ng till kĂ€nsliga system och data. Denna trend drĂ€nerar interna resurser och utsĂ€tter organisationer för nationella sĂ€kerhetsrisker och ekonomisk exploatering. 

Ofta gĂ„r dessa hot under radarn. För varje exempel i nyheterna rapporteras dussintals inte, vilket gör det svĂ„rt att heltĂ€ckande förstĂ„ omfattningen av detta hot. Ju mer vardaglig attacken Ă€r, desto mer oroande – och relaterbar – blir den. Genom att dela exempel som dessa – realistiska, relaterbara och nĂ€rmare hemmet – kan IT-chefer förankra deepfake-konversationen i den dagliga affĂ€rsverksamheten och förstĂ€rka varför detta stĂ€ndigt vĂ€xande hot krĂ€ver seriös uppmĂ€rksamhet pĂ„ styrelsenivĂ„.

Koppla Deepfake-försvar till befintliga motstÄndskraftsmÄtt

IT-chefer fĂ„r stĂ€ndigt samma frĂ„gor frĂ„n sina styrelser: Hur stor Ă€r sannolikheten för att vi blir intrĂ„ng? Var Ă€r vi mest sĂ„rbara? Hur minskar vi risken? Även om nĂ€tfiske, ransomware och dataintrĂ„ng fortfarande förekommer, Ă€r det viktigt att visa upp den grundlĂ€ggande förĂ€ndring som har skett inom dessa sĂ„rbarheter och hur de nu strĂ€cker sig lĂ„ngt bortom traditionella attackytor. 

HR-, finans- och upphandlingsteam – roller som traditionellt sett inte ses som frontlinjeförsvarare – Ă€r nu ofta mĂ„ltavlor för syntetisk imitation, och den genomsnittliga mĂ€nniskans förmĂ„ga att upptĂ€cka dessa hot Ă€r extremt lĂ„g. Faktum Ă€r att bara 1 av 1,000 XNUMX personer kan korrekt upptĂ€cka AI-genererat innehĂ„ll. IT-chefer har nu i uppdrag att hantera behovet av avancerad utbildning i social ingenjörskonst och större cybermotstĂ„ndskraft i hela organisationen, eftersom alla i organisationen behöver utbildas, testas och göras medvetna för att hjĂ€lpa till med begrĂ€nsning. 

Deepfakes-försvar mÄste bli en förlÀngning av företagets motstÄndskraft och krÀver kontinuerlig utbildning pÄ samma sÀtt som team utbildas via phishing-simuleringar, medvetenhetsutbildning och övningar för röda team. ITSO:er bör anvÀnda mÀtvÀrden frÄn utbildningar och simuleringar för att hjÀlpa till att rama in problemet i mÀtvÀrden som deras styrelse förstÄr. Om en styrelse redan har köpt in motstÄndskraft som en strategisk prioritet för organisationen blir deepfakes en naturlig nÀsta grÀnslinje.

AI-genererade hot kommer inte. De Ă€r redan hĂ€r. Det Ă€r dags att vi ser till att styrelserummet Ă€r redo att lyssna och leda. Tack vare införandet av AI har omfattningen och frekvensen av deepfakes- och identitetsbaserade attacker förvandlat hotlandskapet till ett som Ă€r oförutsĂ€gbart och stĂ€ndigt förĂ€nderligt. 

Men styrelser behöver ingen introduktion till deepfakes eller röstkloning. De behöver ett tydligt affĂ€rssammanhang och en större förstĂ„else för de hot de utgör för sina organisationer. ITSO:er bör grunda sin diskussion i risk, kostnad och operativ kontinuitet. De som anpassar sin deepfake-narrativ till vĂ€lkĂ€nda paradigm – nĂ€tfiske, social ingenjörskonst, motstĂ„ndskraft – ger sin styrelse ett ramverk och ett sammanhang inom vilket de kan agera, inte bara reagera. 

Jim Àr produkt- och teknikchef för GetReal, dÀr han leder alla aspekter av produktstrategi, utveckling och leverans. Han har mer Àn tvÄ decenniers erfarenhet av utveckling, hantering och marknadsföring av cybersÀkerhetsprodukter och -tjÀnster pÄ företag som BetterCloud, IBM, Dell Secureworks och RedHat. Han har en kandidatexamen i maskinteknik frÄn Georgia Institute of Technology och en masterexamen i företagsekonomi frÄn Goizueta Business School vid Emory University.