intervjuer
Mark Nicholson, leder for Deloitte US Cyber AI, Deloitte & Touche LLP – Intervjuserie

Mark Nicholson, en direktør hos Deloitte & Touche LLP, er Deloittes leder for cyber-AI. Han jobbet tidligere som leder for null tillit i cyberbransjen, hvor han hjalp komplekse organisasjoner med å utnytte avansert teknologi på en tryggere måte for å bygge cyberrisikoprogrammer som bedre samsvarer med sikkerhetsinvesteringer og risikoprioriteringer, etablerer forbedret trusselbevissthet og synlighet, og hjelper dem med å styrke sin evne til å trives i møte med cyberhendelser.
Mark var aktivt involvert i å designe og bygge noen av de første løsningene for cybersikkerhetsovervåking for svindeldeteksjon og andre former for forebygging av tap i bedrifter. Han orienterer ofte styrer og lederkomiteer om emnene nye cybertrusler og samordningen av tradisjonell risikostyring og teknikker for å redusere cyberrisiko.
Hvordan har karrieren din formet ditt perspektiv på cybersikkerhet og risiko i AI-tidsalderen?
Som gründer som var med på å grunnlegge et selskap i de tidlige dagene av sikkerhetsinformasjon og hendelseshåndtering, har jeg brukt mye tid på å fokusere på problemet med dataaggregering, analyse og automatisering. Jeg husker en tid da analytikere skrev ut papirkopier av brannmurlogger om morgenen for å gjennomgå dem manuelt i håp om å finne avvik i nettverkstrafikken. Til tross for enorme fremskritt har et problem med dataanalyse vedvart. AI lover å forbedre vår evne til å behandle og analysere sikkerhetsdata effektivt dramatisk. Det vil også hjelpe oss med å utføre raskere utbedringstiltak, men innsatsen har aldri vært høyere. Vi nærmer oss en tid der det vil bli vanskeligere og vanskeligere for IT- og cyberfagfolk (enn si lekfolk) å fullt ut forstå den indre funksjonen til datasystemer, og dermed vil det være vanskeligere å forstå når de har blitt kompromittert.
Arbeidet jeg gjør i Deloitte koker egentlig ned til tillit. Kan vi stole på at økonomiske data er nøyaktige? Kan vi stole på at IT-kontrollene er effektive? Kan en kunde stole på at dataene deres vil bli behandlet konfidensielt? AI-alderen forsterker nødvendigheten av å kunne stole på systemenes integritet.
Deloitte lanserte nylig et bredt sett med planer og teknologitjenester for cyber-AI, som er utformet for å hjelpe bedrifter med å integrere AI i kjernen av sin cyberstrategi. Hvilket spesifikt gap eller hvilken markedssvikt så du som gjorde denne lanseringen presserende?
For det første finner dårlige aktører allerede måter å utnytte AI for å oppnå fordeler, noe som fremskynder det hastverk. For det andre finnes det mange ambisiøse påstander om hvordan AI-produkter kan løse vanskelige problemer, men det krever mye eksperimentering for å skille fakta fra fiksjon. Til slutt skaper lederes iver etter å realisere AI-verdi press på cybersikkerhetsprogrammer for å redusere risiko uten å bremse virksomheten. Omtrent 80 % av organisasjonene forventer å øke sine totale AI-utgifter i neste regnskapsår. Omfattende AI-transformasjon krever at cyberledere tenker nytt om hvordan organisasjonene deres opererer.
Deloittes Cyber AI-blåkopier og teknologitjenester bidra til å gi den klarheten som trengs for ledere for å transformere sine cyberoperasjoner for AI-æraen, slik at organisasjoner kan designe, bygge og drifte en AI-aktivert cyberfunksjon som støtter virksomhetens ambisjoner.
Hvordan råder du bedrifter til å balansere rask utrulling av kunstig intelligens med behovet for å bygge inn cybersikkerhetsprotokoller fra grunnen av?
Når det gjelder rask utrulling av AI, må organisasjoner ha styr på nettsikkerheten før implementering. Akkurat som gode bremser gjør at en bil kan kjøre raskere, bør god nettsikkerhet akselerere bruken av AI. Dette krever tydelige styringsrammeverk, kontinuerlig overvåking gjennom hele utrullingssyklusen og tverrfaglig samarbeid mellom AI- og sikkerhetsteam.
Ved å samkjøre disse transformasjonsarbeidene med sikkerhet fra starten av, kan organisasjoner akselerere adopsjonen av AI samtidig som de beskytter kritiske eiendeler og opprettholder samsvar med regelverk.
Deloittes forskning viser at cybersikkerhet ofte har vært en ettertanke i utrullingen av AI. Hva er konsekvensene av denne etterslepet – og hvordan kan organisasjoner korrigere kursen?
Nettsikkerhetsprogrammer har historisk sett vært i et konstant spill for å ta igjen teknologitransformasjon, ofte utilsiktet hengende etter av IT. Noen ganger er dette et resultat av en oppfatning om at involvering av sikkerhet vil hemme fremgangen. Etterslepet skaper alltid innvirkning nedstrøms ved å introdusere risiko og, i tilfelle noen bransjer, regulatorisk gransking. Ironisk nok kan etterslepet bli mer kostbart og tidkrevende i det lange løp.
Med AI er sikkerhet i en unik posisjon til å hjelpe bedriften med å bevege seg raskere og tryggere på AI-reisen. Å få en skikkelig strategi på plass på forhånd er avgjørende, men djevelen ligger egentlig i detaljene. Rammeverk gir et utgangspunkt. Deloittes blåkopier tar deg til neste nivå og bidrar til å legge til rette for den avgjørende samtalen om hvordan teknologien vil fungere i virkeligheten som en del av et komplekst system. Den samtalen går raskt dypt.
Å bygge cybersikkerhet inn i hver forretningsfunksjon fra starten av utgjør en stor forskjell i om initiativet vil lykkes eller ikke. Teknologisk transformasjon krever grundighet. Ved å gjøre cybersikkerhet til et grunnleggende element, kan organisasjoner frigjøre full verdi av AI samtidig som de minimerer risiko, og bidrar til å skape systemer som er sikre, robuste og kompatible.
Hvordan hjelper Deloittes planer bedrifter med å omformulere cybersikkerhet til en verdidriver, snarere enn bare en risikostyringsfunksjon?
Deloittes Cyber AI-blåkopier reduserer behovet for langvarig og kostbar eksperimentering. Blåkopiene hjelper organisasjoner med å akselerere etableringen av en digital sikkerhetsarbeidsstyrke som gir en mer effektiv og brukervennlig opplevelse. Ved å bruke disse blåkopiene kan bedrifter gå utover ad hoc-utvikling av brukstilfeller og lage en tjenestearkitektur med AI som samkjører funksjonene som trengs for å levere forretningsresultater med integrert styring.
Hvilken rolle spiller agentiske AI-systemer i moderne transformasjon av cybersikkerhet, og hvordan integrerer Deloitte dem i tilbudene sine?
Agentisk AI har et stort potensial på tvers av mange applikasjoner innen sikkerhetsfunksjonen, men den er fortsatt i ferd med å modnes. Vi har utviklet agenter som støtter sikkerhetsoperasjoner på nivå 1 og bidrar til å realisere løftet om Security Orchestration, Automation, and Response (SOAR)-produkter som mange organisasjoner har slitt med å implementere. Vi har utviklet en autonom penetrasjonstestingsagent. Vi har laget en agent som forbedrer effektiviteten til IGA-prosessen (Identity Governance and Administration). Vi har til og med begynt å jobbe med et pilotprosjekt for en agent som utfører kontrolleffektivitetsovervåking og som til slutt kan være i stand til å gi et førsteutkast til respons på regulatoriske undersøkelser. Vårt større fokus er hvordan alt dette fungerer sammen. Til syvende og sist, ettersom agenter sprer seg eksponentielt, må organisasjoner ha sterk kontroll over agenttillatelser. For å skape reell verdi må det også være en tilsynsfunksjon som koordinerer og styrer arbeidsmengder og forespørsler.
Deloitte tilbyr tegninger og teknologitjenester for Cyber AI for å hjelpe organisasjoner med å akselerere programmene sine. Deloitte tilbyr også GenAI og agentiske løsninger gjennom sin Zora AI™-produktplattform, som ble utformet for sterk ytelse, sikkerhet og skalerbarhet.
Hvordan går du frem for å bygge en cybersikkerhetsbevisst arbeidsstyrke i en tid der kunstig intelligens automatiserer mer beslutningstaking? Hvilke ferdigheter er fortsatt viktigst?
For det første er det viktig å merke seg at den menneskelige arbeidsstyrken er nøkkelen til å realisere verdi fra AI. Ingen vet mer om hva som ligger bak arbeidet enn de som gjør det hver dag. Det er viktig at ledere verver dokumenterte utøvere i organisasjonene sine for å bidra til å etablere et tydelig rammeverk og rekkverk for å utnytte AI. I denne fasen er intern kommunikasjon kritisk, ettersom ledere må sette tonen fra toppen, men engasjere interessenter og arbeidere tidlig for å sikre åpenhet og fremme engasjement. Eksponering og opplæring kan bidra til å avmystifisere teknologien og deretter fremme en kultur som ser på transformasjonen som nyttig for å gjøre jobben enklere og/eller hjelpe dem å bli mer produktive.
Hvilke bransjesektorer viser, etter din erfaring, størst behov – eller motstand – mot AI-ledede transformasjoner?
Tempoet på AI-ledet transformasjon varierer mye fra selskap til selskap og avhenger av forretningsfunksjonen. De fleste sektorer utforsker verdien AI vil tilføre sikkerhetsprogrammet deres. I sterkt regulerte bransjer er det et ekstra insentiv til å utnytte AI for forbedret risikostyring (med årvåkenhet i håndteringen av risikoen som AI i seg selv introduserer). Finansielle tjenester og teknologiselskaper ligger ofte i forkant av teknologiadopsjon, men de er ikke alene om å prioritere AI-initiativer. Mange biovitenskaps- og helsevesenselskaper utvikler aggressivt AI-programmer. Uansett sektor er det i noen tilfeller en oppfatning på ledernivå om at AI kan drive kostnadsreduksjon og transformasjon av arbeidsstyrken, og dette driver handling.
Det har vært litt diskusjon i det siste om blandede resultater når det gjelder å oppnå forretningsverdi fra AI-adopsjon, men jeg tror ikke dette gjelder i sikkerhetssammenheng. Det er viktig å merke seg at når man ser på avkastning på investeringen med AI-adopsjon på tvers av bransjer, De som fokuserer på cybersikkerhet har langt større sannsynlighet for å overgå forventningene om avkastning på investeringen., med 44 % av cybersikkerhetsinitiativene som leverer en avkastning noe eller betydelig over forventningene, mot bare 17 % som leverer en avkastning noe eller betydelig under forventningene.
Hvilke målinger eller signaler bruker dere for å måle om en klients transformasjon innen kunstig intelligens og cybersikkerhet faktisk leverer forretningsverdi?
Det er flere faktorer som avgjør hvordan forretningsresultatet av denne transformasjonen skal måles – alt avhengig av en organisasjons spesifikke virksomhet, bransje, trussellandskap, behov og modenhet. Organisasjoner kan begynne med å gjennomføre en AI-beredskapsvurdering for å identifisere mulighetene som finnes og innsatsnivået for å oppnå ønsket avkastning. I tillegg til dette har Deloitte laget et Workforce Analyzer-verktøy som hjelper en organisasjon med å bedre forstå den daglige arbeidsbelastningen som bæres av cyberpersonell.
Hvis du ser fem år fremover, hvordan forventer du at AI vil omforme cybersikkerhetslandskapet – både når det gjelder trusselsofistikering og hvordan organisasjoner forsvarer seg?
Med den utrolige innovasjonstakten er det vanskelig å spå fem år frem i tid. Det er trygt å si at AI vil fortsette å transformere cybersikkerhetslandskapet på begge sider av ligningen. Vi forventer en økning i sofistikering av trusler ettersom motstandere utnytter AI til å automatisere angrep, unngå deteksjon og utnytte sårbarheter med enestående hastighet og skala. Vi forventer også at organisasjoner i økende grad vil utnytte AI-drevne verktøy for proaktivt å identifisere risikoer, automatisere hendelsesutbedring og tilpasse forsvar dynamisk, mens mennesker opprettholder forvaltningen «på loopen».
Det er selvinnlysende at bedrifter som investerer i AI-drevet sikkerhet og fremmer en kultur for kontinuerlig læring, sannsynligvis vil være bedre rustet til å beskytte eiendeler, bygge motstandskraft og opprettholde tillit enn de som ikke gjør det.
Takk for det flotte intervjuet. Lesere som ønsker å lære mer bør besøke Deloitte Cyber AI-planer og teknologitjenester side.












