Tanke ledare
Styrelserumsklyftan: Varför IT-chefer kĂ€mpar med att prata om djupförfalskningar â och hur man ska formulera den

CybersÀkerhet gÄr in i en avgörande period, driven av det utbredda införandet av AI av företag, myndigheter och individer. 82% Av företag i USA som antingen anvÀnder eller utforskar anvÀndningen av AI i sin verksamhet, lÄser organisationer upp nya effektivitetsvinster, men det gör Àven angripare. Samma verktyg som driver innovation gör det ocksÄ möjligt för hotande aktörer att generera syntetiskt innehÄll med alarmerande lÀtthet och realism. Denna nya verklighet har infört betydande utmaningar, inklusive möjligheten att skapa syntetiskt innehÄll (bilder, ljud och video) och skadliga deepfakes (manipulerat ljud, video eller bild som anvÀnds för att utge sig för att vara en verklig person) med oövertrÀffad hastighet och sofistikering. Med bara nÄgra fÄ klick kan vem som helst med tillgÄng till en dator och internet manipulera bilder, ljud och videor, vilket introducerar misstro och tvivel i informationsandan.
I en tid dĂ€r företag, myndigheter och medieorganisationer Ă€r beroende av digital kommunikation för sin försörjning finns det inget utrymme för misstag i att underskatta riskerna som djupförfalskningar, syntetiska identitetsbedrĂ€gerier och personifieringsattacker utgör. Dessa hot Ă€r inte lĂ€ngre hypotetiska â ekonomiska förluster frĂ„n djupförfalskade företagsbedrĂ€gerier överskrids. 200 miljoner dollar enbart under första kvartalet 1, vilket understryker problemets omfattning och brĂ„dska. Ett nytt hotlandskap krĂ€ver en ny strategi för cybersĂ€kerhet, och ITSO:er mĂ„ste agera snabbt för att sĂ€kerstĂ€lla att deras företag förblir sĂ€kert. Att be om nytt kapital och tydligt kommunicera en organisations hotexponering till en styrelse med varierande kunskapsnivĂ„er om hur allvarligt hotet frĂ„n deepfakes Ă€r kan dock vara skrĂ€mmande. I takt med att deepfake-attacker fortsĂ€tter att utvecklas och ta form mĂ„ste varje ITSO ligga i framkant nĂ€r det gĂ€ller att föra denna diskussion till styrelserummet.
Nedan följer ett ramverk för IT-chefer och chefer för att underlÀtta intressentdialoger pÄ styrelse-, organisations- och samhÀllsnivÄ.
AnvÀnd bekanta ramverk: Deepfakes som avancerad social ingenjörskonst
Styrelser har blivit konditionerade att tÀnka pÄ cybersÀkerhet i vÀlbekanta termer: nÀtfiskemejl, ransomware-attacker och den hotande frÄgan om huruvida deras företag kommer att bli intrÄngade. Den instÀllningen formar hur de prioriterar hot och var de fördelar sÀkerhetsbudgetar. Men nÀr det gÀller AI-genererat innehÄll, sÀrskilt deepfakes, finns det ingen inbyggd referenspunkt. Att framstÀlla deepfakes som ett fristÄende, nytt hot leder ofta till förvirring, skepticism eller passivitet.
För att bekÀmpa detta bör IT-chefer förankra samtalet i nÄgot som styrelser redan förstÄr: social ingenjörskonst. I grund och botten Àr deepfake-hotet inte helt nytt; det Àr en utvecklad, farligare form av nÀtfiske som har funnits inom branschen i Äratal och fortsÀtter att vara den frÀmsta. attack vektor av social ingenjörskonst. Styrelser inser redan att nÀtfiske Àr en trovÀrdig risk, och de Àr bekvÀma med att godkÀnna resurser för att försvara sig mot den. I mÄnga avseenden representerar djupförfalskningar en mer övertygande, mer skalbar och mer kapabel form av social ingenjörskonst, som riktar sig mot bÄde organisationer och individer med förödande precision.
Inramning deepfakes PÄ sÄ sÀtt kan IT-chefer utnyttja befintlig utbildning, budgetposter och institutionellt muskelminne. IstÀllet för att be om nya resurser kan de omformulera begÀran till en utveckling av redan godkÀnda sÀkerhetsinvesteringar. Ju mer IT-chefer kan luta sig mot denna berÀttelse, desto mer sannolikt Àr det att de fÄr resurser för att ta itu med denna större, omedelbara frÄga.
Förankra risken i realism, inte sensationalism
Att peka pĂ„ verkliga exempel Ă€r ett bra sĂ€tt att öka en styrelses förstĂ„else för de effekter deepfake-hot kan ha pĂ„ organisationer. Det Ă€r dock viktigt att övervĂ€ga vilka exempel IT-chefer presenterar för styrelser, eftersom de kan ha motsatt effekt. ĂkĂ€nda historier som BankbedrĂ€geriet pĂ„ vĂ€rt 25 miljoner dollar i Hongkong skapar bra rubriker, men de kan slĂ„ tillbaka i styrelserummet. Dessa extrema exempel kĂ€nns ofta avlĂ€gsna eller orealistiska, vilket skapar en kĂ€nsla av att "nĂ„got sĂ„ katastrofalt aldrig skulle kunna hĂ€nda oss". Denna partiskhet slĂ„r in omedelbart och tar bort kĂ€nslan av att det Ă€r viktigt att investera i skydd.
IstÀllet bör IT-chefer anvÀnda mer relaterbara scenarier för att visa hur denna risk kan utspela sig internt, sÄsom chefsutövning eller intervjufusk.
I ett fall, Nordkoreanska hotaktörer skapade ett falskt Zoom-samtal med AI-genererade chefer för att lura en kryptoanstÀlld att ladda ner skadlig kod för att komma Ät kÀnslig företagsinformation med avsikt att stjÀla kryptovaluta. I slutÀndan kunde hackarna inte fÄ Ätkomst, men hotet som dessa attacker utgör mot ett varumÀrkes integritet borde vara en vÀckarklocka för styrelser inom företaget.
En annan vÀxande taktik innebÀr falska jobbkandidater anvÀnder AI-genererade identiteter och djupförfalskade autentiseringsuppgifter för att infiltrera företagsorganisationer. Dessa individer agerar ofta pÄ uppdrag av amerikanska motstÄndare som Ryssland, Nordkorea eller Kina, i jakt pÄ tillgÄng till kÀnsliga system och data. Denna trend drÀnerar interna resurser och utsÀtter organisationer för nationella sÀkerhetsrisker och ekonomisk exploatering.
Ofta gĂ„r dessa hot under radarn. För varje exempel i nyheterna rapporteras dussintals inte, vilket gör det svĂ„rt att heltĂ€ckande förstĂ„ omfattningen av detta hot. Ju mer vardaglig attacken Ă€r, desto mer oroande â och relaterbar â blir den. Genom att dela exempel som dessa â realistiska, relaterbara och nĂ€rmare hemmet â kan IT-chefer förankra deepfake-konversationen i den dagliga affĂ€rsverksamheten och förstĂ€rka varför detta stĂ€ndigt vĂ€xande hot krĂ€ver seriös uppmĂ€rksamhet pĂ„ styrelsenivĂ„.
Koppla Deepfake-försvar till befintliga motstÄndskraftsmÄtt
IT-chefer fĂ„r stĂ€ndigt samma frĂ„gor frĂ„n sina styrelser: Hur stor Ă€r sannolikheten för att vi blir intrĂ„ng? Var Ă€r vi mest sĂ„rbara? Hur minskar vi risken? Ăven om nĂ€tfiske, ransomware och dataintrĂ„ng fortfarande förekommer, Ă€r det viktigt att visa upp den grundlĂ€ggande förĂ€ndring som har skett inom dessa sĂ„rbarheter och hur de nu strĂ€cker sig lĂ„ngt bortom traditionella attackytor.
HR-, finans- och upphandlingsteam â roller som traditionellt sett inte ses som frontlinjeförsvarare â Ă€r nu ofta mĂ„ltavlor för syntetisk imitation, och den genomsnittliga mĂ€nniskans förmĂ„ga att upptĂ€cka dessa hot Ă€r extremt lĂ„g. Faktum Ă€r att bara 1 av 1,000 XNUMX personer kan korrekt upptĂ€cka AI-genererat innehĂ„ll. IT-chefer har nu i uppdrag att hantera behovet av avancerad utbildning i social ingenjörskonst och större cybermotstĂ„ndskraft i hela organisationen, eftersom alla i organisationen behöver utbildas, testas och göras medvetna för att hjĂ€lpa till med begrĂ€nsning.
Deepfakes-försvar mÄste bli en förlÀngning av företagets motstÄndskraft och krÀver kontinuerlig utbildning pÄ samma sÀtt som team utbildas via phishing-simuleringar, medvetenhetsutbildning och övningar för röda team. ITSO:er bör anvÀnda mÀtvÀrden frÄn utbildningar och simuleringar för att hjÀlpa till att rama in problemet i mÀtvÀrden som deras styrelse förstÄr. Om en styrelse redan har köpt in motstÄndskraft som en strategisk prioritet för organisationen blir deepfakes en naturlig nÀsta grÀnslinje.
AI-genererade hot kommer inte. De Àr redan hÀr. Det Àr dags att vi ser till att styrelserummet Àr redo att lyssna och leda. Tack vare införandet av AI har omfattningen och frekvensen av deepfakes- och identitetsbaserade attacker förvandlat hotlandskapet till ett som Àr oförutsÀgbart och stÀndigt förÀnderligt.
Men styrelser behöver ingen introduktion till deepfakes eller röstkloning. De behöver ett tydligt affĂ€rssammanhang och en större förstĂ„else för de hot de utgör för sina organisationer. ITSO:er bör grunda sin diskussion i risk, kostnad och operativ kontinuitet. De som anpassar sin deepfake-narrativ till vĂ€lkĂ€nda paradigm â nĂ€tfiske, social ingenjörskonst, motstĂ„ndskraft â ger sin styrelse ett ramverk och ett sammanhang inom vilket de kan agera, inte bara reagera.