Connect with us

Sundhedsvæsen

Sikring af robust sikkerhed for autonom AI i sundhedssektoren

mm

Den rasende krig mod dataudtræninger udgør en stigende udfordring for sundhedsorganisationer globalt. Ifølge aktuelle statistikker ligger den gennemsnitlige omkostning ved en dataudtræning nu på $4.45 million på verdensplan, et beløb, der mere end fordobles til $9,48 million for sundhedsydelere, der betjener patienter inden for USA. Til dette allerede uhyggelige problem kommer det moderne fænomen med inter- og intra-organisatorisk dataforbredning. En bekymrende 40% af afslørede dataudtræninger indebærer information, der er spredt over flere miljøer, hvilket udvider angrebsfladen og tilbyder mange indgangsveje for angribere.

Den voksende autonomi af generativ AI bringer en æra af radikal forandring. Dermed kommer der en presserende strøm af yderligere sikkerhedsrisici, da disse avancerede intelligente agenter bevæger sig ud af teorien og ind i installationer i flere domæner, såsom sundhedssektoren. At forstå og afværge disse nye trusler er afgørende for at opskalere AI ansvarligt og forbedre en organisations modstandsdygtighed mod cyberangreb af enhver art, enten på grund af ondsindet softwaretrusler, dataudtræninger eller velkoordinerede forsyningskædeangreb.

Modstandsdygtighed på design- og implementeringsstadiet

Organisationer må adoptere en omfattende og evolutionær proaktiv forsvarstrategi for at imødegå de øgede sikkerhedsrisici, der skyldes AI, især i sundhedssektoren, hvor indsatsen indebærer både patienternes velbefindende og overholdelse af reguleringsmæssige foranstaltninger.

Dette kræver en systematisk og omfattende tilgang, der starter med AI-systemudvikling og -design og fortsætter til storstilede installationer af disse systemer.

  • Det første og mest kritiske skridt, som organisationer må foretage, er at kortlægge og truslemodelere deres hele AI-pipeline, fra dataindtagelse til modeltræning, validering, installation og slutning. Dette skridt muliggør en præcis identificering af alle potentielle punkter for eksponering og sårbarhed med risikogranularitet baseret på impact og sandsynlighed.
  • For det andet er det vigtigt at oprette sikre arkitekturer for installation af systemer og programmer, der udnytter store sprogmodeller (LLM’er), herunder dem med Agentic AI-funktioner. Dette indebærer en omhyggelig overvejelse af forskellige foranstaltninger, såsom container sikkerhed, sikker API-design og sikker håndtering af følsomme træningsdata.
  • For det tredje må organisationer forstå og implementere anbefalingerne fra forskellige standarder/rammer. For eksempel overholde retningslinjerne fastlagt af NIST’s AI-risikostyringsramme for omfattende risikoidentificering og -afværge. De kunne også overveje OWASP’s råd om de unikke sårbarheder, der introduceres af LLM-programmer, såsom promptinjektion og usikker udgangshåndtering.
  • Desuden må klassiske truslemodelteknikker også udvikles for at effektivt håndtere de unikke og intrikate angreb, der genereres af Gen AI, herunder snigende dataforgiftningangreb, der true modellens integritet, og muligheden for at generere følsom, fordomsfuld eller upassende produceret indhold i AI-udgang.
  • Til sidst må organisationer, selv efter installation, forblive vagtsomme ved at praktisere regelmæssige og strenge red team-manøvrer og specialiserede AI-sikkerhedsauditter, der specifikt retter sig mod kilder som bias, robusthed og klarhed for at kontinuerligt opdage og afværge sårbarheder i AI-systemer.

Det er væsentligt at bemærke, at grundlaget for at oprette stærke AI-systemer i sundhedssektoren er at fundamentalt beskytte hele AI-livscyklussen, fra skabelse til installation, med en klar forståelse af nye trusler og en overholdelse af etablerede sikkerhedsprincipper.

Foranstaltninger under den operationelle livscyklus

Ud over den initielle sikre design og installation kræver en robust AI-sikkerhedsposition vagtsom opmærksomhed på detaljer og aktiv forsvar på tværs af AI-livscyklussen. Dette nødvendiggør en kontinuerlig overvågning af indhold ved at udnytte AI-drevet overvågning for at opdage følsomme eller ondsindede udgang så hurtigt som muligt, samtidig med at overholde informationsfrigivelsespolitikker og brugeradgang. Under modeludvikling og i produktionsmiljøet må organisationer aktivt scannere efter malware, sårbarheder og fjendtlig aktivitet på samme tid. Disse er alle, naturligvis, komplementære til traditionelle cybersikkerhedsforanstaltninger.

For at opmuntre brugertillid og forbedre fortolkningen af AI-beslutninger er det essentiel at bruge Explainable AI (XAI)-værktøjer til at forstå den underliggende rationale for AI-udgang og forudsigelser.

Forbedret kontrol og sikkerhed muliggøres også gennem automatiseret dataopdagelse og intelligent dataklassificering med dynamisk ændrende klassificatorer, der giver en kritisk og opdateret visning af det konstant ændrende data-miljø. Disse initiativer stammer fra imperativet for at gennemtvinge stærke sikkerheds kontroller som fine-grained rollebaseret adgangskontrol (RBAC)-metoder, end-to-end krypteringsrammer til at beskytte information under transmission og i hvile, og effektive data-masking-teknikker til at skjule følsomme data.

Udførlig sikkerhedsbevidsthedstræning for alle forretningsbrugere, der arbejder med AI-systemer, er også afgørende, da det etablerer en kritisk menneske-orienteret sikkerhedsbarriere for at opdage og neutralisere mulige sociale ingeniørangreb og andre AI-relaterede trusler.

Sikring af Agentic AI’s fremtid

Grundlaget for vedvarende modstandsdygtighed over for udviklende AI-sikkerhedstrusler ligger i den foreslåede multi-dimensionale og kontinuerlige metode til at overvåge, aktivt scannere, klart forklare, intelligent klassificere og strengt sikre AI-systemer. Dette er, naturligvis, tillæg til etablering af en udbredt menneske-orienteret sikkerheds kultur samt modne traditionelle cybersikkerheds kontroller. Da autonome AI-agenter inkorporeres i organisationsprocesser, øges nødvendigheden af robuste sikkerheds kontroller. I dagens virkelighed sker dataudtræninger i offentlige skyer, og det koster i gennemsnit $5,17 million, hvilket tydeligt understreger truslen mod en organisations økonomi samt rygte.

Til revolutionerende innovationer hører AI’s fremtid udvikling af modstandsdygtighed med en grundlæggende indbygget sikkerhed, åbne driftsrammer og stramme styreprocedurer. At etablere tillid til disse intelligente agenter vil ultimativt afgøre, hvor omfattende og varigt de vil blive accepteret, og forme AI’s transformative potentiale.

Vipin Varma er Senior Vice President og leder af Cybersecurity Practice hos CitiusTech.
Med over 35 års erfaring inden for cybersecurity og bredere ICT-domæner, bringer Vipin dyb ekspertise og strategisk lederskab til at drive sikker, robust digital transformation på tværs af sundhedsøkosystemet.
Før CitiusTech, ledede Vipin cybersecurity-forretningen for globale life sciences-, sundheds-, energi- og utilities-kunder hos Tata Consultancy Services, hvor han tilbragte over 12 år med at forme cybersecurity-strategier på tværs af regulerede industrier. Før han indtrådte i den private sektor, havde han tjent i mere end 23 år i den indiske hær, hvor han havde vigtige roller, herunder at kommandere en enhed i aktive modterroroperationer, lede IT og kommunikation for en UN-fredsmægling i Sudan og styre komplekse teknologi-programmer.