Tankeledere
Sikre robust sikkerhet for autonom AI i helsevesenet

Den rasende krigen mot datainnbrudd utgjør en økende utfordring for helseorganisasjoner globalt. I følge nåværende statistikk er den gjennomsnittlige kostnaden for et datainnbrudd nå på $ 4.45 millioner på verdensbasis, et tall som mer enn dobles til 9.48 millioner dollar for helsepersonell som betjener pasienter i USA. I tillegg til dette allerede skremmende problemet kommer det moderne fenomenet med spredning av data mellom og innen organisasjoner. En bekymringsfull 40 % av avslørte brudd involvere informasjon spredt over flere miljøer, noe som utvider angrepsflaten betraktelig og tilbyr mange inngangsmuligheter for angripere.
Den økende autonomien til generativ AI bringer en æra med radikale endringer. Derfor følger det en presserende bølge av ytterligere sikkerhetsrisikoer ettersom disse avanserte intelligente agentene går ut av teorien til distribusjon i flere domener, som for eksempel helsesektoren. Å forstå og redusere disse nye truslene er avgjørende for å oppskalere AI ansvarlig og forbedre en organisasjons motstandskraft mot cyberangrep av enhver art, enten det skyldes skadelig programvare, datainnbrudd eller til og med velorganiserte angrep i forsyningskjeden.
Motstandskraft i design- og implementeringsfasen
Organisasjoner må ta i bruk en omfattende og evolusjonær proaktiv forsvarsstrategi for å håndtere de økende sikkerhetsrisikoene forårsaket av AI, spesielt innen helsevesenet, der det som står på spill involverer både pasientvelferd og overholdelse av regulatoriske tiltak.
Dette krever en systematisk og omfattende tilnærming, som starter med utvikling og design av AI-systemer, og fortsetter med storskala utrulling av disse systemene.
- Det første og viktigste trinnet organisasjoner må ta, er å kartlegge og trusselmodellere hele sin AI-prosess, fra datainntak til modelltrening, validering, utrulling og inferens. Dette trinnet muliggjør presis identifisering av alle potensielle eksponerings- og sårbarhetspunkter med risikogranularitet basert på konsekvens og sannsynlighet.
- For det andre er det viktig å lage sikre arkitekturer for utrulling av systemer og applikasjoner som bruker store språkmodeller (LLM-er), inkludert de med Agentisk AI funksjoner. Dette innebærer å nøye vurdere ulike tiltak, som containersikkerhet, sikker API-design og sikker håndtering av sensitive treningsdatasett.
- For det tredje må organisasjoner forstå og implementere anbefalingene i ulike standarder/rammeverk. For eksempel følge retningslinjene fastsatt av NIST-er Rammeverk for risikostyring av kunstig intelligens for omfattende risikoidentifisering og -reduksjon. De kan også vurdere OWASPs råd om de unike sårbarhetene introdusert av LLM-applikasjoner, som rask injeksjon og usikker håndtering av utdata.
- Dessuten må klassiske trusselmodelleringsteknikker også utvikles for å effektivt håndtere de unike og intrikate angrepene generert av generasjon AI, inkludert snikende dataforgiftningsangrep som truer modellens integritet og potensialet for å generere sensitivt, partisk eller upassende produsert innhold i AI-utdata.
- Til slutt, selv etter utrulling, må organisasjoner være årvåkne ved å praktisere regelmessige og strenge «red teaming»-manøvrer og spesialiserte AI-sikkerhetsrevisjoner som spesifikt retter seg mot kilder som skjevhet, robusthet og klarhet for kontinuerlig å oppdage og redusere sårbarheter i AI-systemer.
Det er verdt å merke seg at grunnlaget for å skape sterke AI-systemer i helsevesenet er å beskytte hele AI-livssyklusen, fra opprettelse til utrulling, med en klar forståelse av nye trusler og overholdelse av etablerte sikkerhetsprinsipper.
Tiltak i løpet av driftssyklusen
I tillegg til den innledende sikre designen og utrullingen, krever en robust AI-sikkerhetsstrategi årvåken oppmerksomhet på detaljer og aktivt forsvar gjennom hele AI-livssyklusen. Dette nødvendiggjør kontinuerlig overvåking av innhold, ved å utnytte AI-drevet overvåking for å oppdage sensitive eller ondsinnede utdata umiddelbart, samtidig som retningslinjer for informasjonsutgivelse og brukertillatelser overholdes. Under modellutvikling og i produksjonsmiljøet må organisasjoner aktivt skanne etter skadelig programvare, sårbarheter og fiendtlig aktivitet samtidig. Alt dette er selvfølgelig et supplement til tradisjonelle cybersikkerhetstiltak.
For å oppmuntre brukertillit og forbedre tolkbarheten av AI-beslutninger, er det viktig å bruke dem nøye. Forklarbar AI (XAI)-verktøy for å forstå den underliggende begrunnelsen for AI-utdata og -prediksjoner.
Forbedret kontroll og sikkerhet legges også til rette gjennom automatisert dataoppdagelse og smart dataklassifisering med dynamisk skiftende klassifiserere, som gir et kritisk og oppdatert bilde av det stadig skiftende datamiljøet. Disse initiativene stammer fra nødvendigheten av å håndheve sterke sikkerhetskontroller som finjusterte rollebaserte tilgangskontrollmetoder (RBAC), ende-til-ende-krypteringsrammeverk for å beskytte informasjon under overføring og i ro, og effektive datamaskeringsteknikker for å skjule sensitive data.
Grundig sikkerhetsbevissthetsopplæring for alle forretningsbrukere som arbeider med AI-systemer er også viktig, ettersom det etablerer en kritisk menneskelig brannmur for å oppdage og nøytralisere mulige sosialtekniske angrep og andre AI-relaterte trusler.
Sikring av fremtiden til Agentic AI
Grunnlaget for vedvarende robusthet i møte med utviklende AI-sikkerhetstrusler ligger i den foreslåtte flerdimensjonale og kontinuerlige metoden for nøye overvåking, aktiv skanning, tydelig forklaring, intelligent klassifisering og streng sikring av AI-systemer. Dette kommer selvfølgelig i tillegg til å etablere en utbredt menneskeorientert sikkerhetskultur sammen med modne tradisjonelle cybersikkerhetskontroller. Etter hvert som autonome AI-agenter innlemmes i organisatoriske prosesser, øker behovet for robuste sikkerhetskontroller. Dagens realitet er at datainnbrudd i offentlige skyer skjer og koster i gjennomsnitt $ 5.17 millioner , noe som tydelig understreker trusselen mot en organisasjons økonomi så vel som omdømme.
I tillegg til revolusjonerende innovasjoner, avhenger AIs fremtid av å utvikle robusthet med et fundament av innebygd sikkerhet, åpne driftsrammeverk og strenge styringsprosedyrer. Å etablere tillit til slike intelligente agenter vil til syvende og sist avgjøre hvor omfattende og varig de vil bli tatt i bruk, og dermed forme selve utviklingen av AIs transformative potensial.