Anslut dig till vårt nätverk!

Tanke ledare

Säkerställa robust säkerhet för autonom AI inom sjukvården

mm

Det rasande kriget mot dataintrång utgör en allt större utmaning för hälso- och sjukvårdsorganisationer globalt. Enligt aktuell statistik ligger den genomsnittliga kostnaden för ett dataintrång nu på $ 4.45 miljoner världen över, en siffra som mer än fördubblas till 9.48 miljoner dollar för vårdgivare som betjänar patienter inom USA. Till detta redan skrämmande problem förvärras av det moderna fenomenet med spridning av data mellan och inom organisationer. En oroande 40 % av avslöjade intrång involvera information spridd över flera miljöer, vilket avsevärt utökar attackytan och erbjuder många inträdesvägar för angripare.

Den växande autonomin hos generativ AI innebär en era av radikala förändringar. Därför kommer den ökande vågen av ytterligare säkerhetsrisker i takt med att dessa avancerade intelligenta agenter lämnar teorin och används inom flera områden, såsom hälso- och sjukvårdssektorn. Att förstå och mildra dessa nya hot är avgörande för att kunna uppskala AI på ett ansvarsfullt sätt och förbättra en organisations motståndskraft mot cyberattacker av alla slag, vare sig det handlar om hot från skadlig programvara, dataintrång eller till och med välorganiserade attacker i leveranskedjan.

Motståndskraft i design- och implementeringsfasen

Organisationer måste anta en omfattande och proaktiv försvarsstrategi för att hantera de ökande säkerhetsriskerna som orsakas av AI, särskilt inom sjukvården, där insatserna involverar både patienters välbefinnande och efterlevnad av regelverk.

Detta kräver en systematisk och detaljerad strategi, med början i utveckling och design av AI-system, och fortsatt storskalig implementering av dessa system.

  • Det första och viktigaste steget som organisationer behöver vidta är att kartlägga och hotmodellera hela sin AI-pipeline, från datainmatning till modellträning, validering, driftsättning och inferens. Detta steg underlättar exakt identifiering av alla potentiella exponerings- och sårbarhetspunkter med riskgranularitet baserat på påverkan och sannolikhet.
  • För det andra är det viktigt att skapa säkra arkitekturer för driftsättning av system och applikationer som använder stora språkmodeller (LLM), inklusive de med Agent AI funktioner. Detta innebär att man noggrant överväger olika åtgärder, såsom containersäkerhet, säker API-design och säker hantering av känsliga träningsdataset.
  • För det tredje måste organisationer förstå och implementera rekommendationerna i olika standarder/ramverk. Till exempel följa de riktlinjer som fastställts av NIST: s Ramverk för AI-riskhantering för omfattande riskidentifiering och riskreducering. De skulle också kunna överväga OWASPs råd om de unika sårbarheter som introduceras av LLM-applikationer, såsom snabb injektion och osäker hantering av utdata.
  • Dessutom behöver klassiska hotmodelleringstekniker utvecklas för att effektivt hantera de unika och invecklade attacker som genereras av generationens AI, inklusive lömska dataförgiftningsattacker som hotar modellens integritet och potentialen att generera känsligt, partiskt eller olämpligt producerat innehåll i AI-utdata.
  • Slutligen, även efter driftsättningen, måste organisationer förbli vaksamma genom att regelbundet och strikta åtgärder för att minska risken för förlust av data och specialiserade AI-säkerhetsrevisioner som specifikt inriktar sig på källor som partiskhet, robusthet och tydlighet för att kontinuerligt upptäcka och minska sårbarheter i AI-system.

Grunden för att skapa starka AI-system inom hälso- och sjukvården är att i grunden skydda hela AI-livscykeln, från skapande till driftsättning, med en tydlig förståelse för nya hot och efterlevnad av etablerade säkerhetsprinciper.

Åtgärder under den operativa livscykeln

Utöver den initiala säkra designen och driftsättningen kräver en robust AI-säkerhetsstrategi noggrann uppmärksamhet på detaljer och aktivt försvar under hela AI:s livscykel. Detta kräver kontinuerlig övervakning av innehåll, genom att utnyttja AI-driven övervakning för att omedelbart upptäcka känsliga eller skadliga utdata, samtidigt som man följer policyer för informationsutgivning och användarbehörigheter. Under modellutveckling och i produktionsmiljön måste organisationer aktivt skanna efter skadlig programvara, sårbarheter och fiendtlig aktivitet samtidigt. Dessa kompletterar naturligtvis traditionella cybersäkerhetsåtgärder.

För att uppmuntra användarnas förtroende och förbättra tolkbarheten av AI-beslut är det viktigt att noggrant använda Förklarbar AI (XAI)-verktyg för att förstå den underliggande logiken bakom AI-utdata och förutsägelser.

Förbättrad kontroll och säkerhet underlättas också genom automatiserad dataupptäckt och smart dataklassificering med dynamiskt föränderliga klassificerare, vilket ger en kritisk och aktuell bild av den ständigt föränderliga datamiljön. Dessa initiativ härrör från behovet av att upprätthålla starka säkerhetskontroller som finjusterade rollbaserade åtkomstkontrollmetoder (RBAC), ramverk för end-to-end-kryptering för att skydda information under överföring och i vila, och effektiva datamaskeringstekniker för att dölja känsliga data.

Grundlig säkerhetsmedvetenhetsutbildning för alla affärsanvändare som arbetar med AI-system är också avgörande, eftersom det etablerar en kritisk mänsklig brandvägg för att upptäcka och neutralisera eventuella sociala ingenjörsattacker och andra AI-relaterade hot.

Säkra framtiden för Agentic AI

Grunden för en hållbar motståndskraft inför föränderliga AI-säkerhetshot ligger i den föreslagna flerdimensionella och kontinuerliga metoden för att noggrant övervaka, aktivt skanna, tydligt förklara, intelligent klassificera och strikt säkra AI-system. Detta är naturligtvis utöver att etablera en utbredd människoorienterad säkerhetskultur tillsammans med mogna traditionella cybersäkerhetskontroller. I takt med att autonoma AI-agenter införlivas i organisatoriska processer ökar behovet av robusta säkerhetskontroller. Dagens verklighet är att dataintrång i publika moln inträffar och kostar i genomsnitt $ 5.17 miljoner , vilket tydligt betonar hotet mot en organisations ekonomi såväl som rykte.

Förutom revolutionerande innovationer beror AI:s framtid på att utveckla motståndskraft med en grund av inbäddad säkerhet, öppna operativa ramverk och strikta styrningsförfaranden. Att etablera förtroende för sådana intelligenta agenter kommer i slutändan att avgöra hur omfattande och varaktigt de kommer att anammas, vilket formar själva utvecklingen av AI:s transformativa potential.

Vipin Varma är Senior Vice President och chef för cybersäkerhetsavdelningen på CitiusTech.

Med över 35 års erfarenhet inom cybersäkerhet och bredare IKT-områden bidrar Vipin med djup expertis och strategiskt ledarskap för att driva säker och motståndskraftig digital transformation inom hela hälso- och sjukvårdsekosystemet.

Innan CitiusTech ledde Vipin cybersäkerhetsverksamheten för globala kunder inom life science, hälso- och sjukvård, energi och allmännyttiga tjänster på Tata Consultancy Services, där han tillbringade över 12 år med att utforma cybersäkerhetsstrategier inom reglerade branscher. Innan han gick in i näringslivet tjänstgjorde han i mer än 23 år i den indiska armén, där han innehade nyckelroller, bland annat som chef för en enhet i aktiva operationer mot uppror, ledning av IT och kommunikation för ett fredsbevarande FN-uppdrag i Sudan och hantering av komplexa teknikprogram.