Connect with us

Zajištění odolné bezpečnosti pro autonomní AI ve zdravotnictví

Zdravotnictví

Zajištění odolné bezpečnosti pro autonomní AI ve zdravotnictví

mm

Zuřící válka proti únikům dat představuje rostoucí výzvu pro zdravotnické organizace po celém světě. Podle aktuálních statistik se průměrné náklady na únik dat nyní pohybují na úrovni $4,45 milionu celosvětově, což je číslo, které se více než zdvojnásobí na $9,48 milionu pro zdravotnické poskytovatele, kteří slouží pacientům ve Spojených státech. K tomuto již tak hrozivému problému se přidává moderní jev inter- a intraorganizační proliferace dat. Obava 40 % zveřejněných úniků zahrnuje informace rozložené napříč několika prostředími, což výrazně rozšiřuje útočný povrch a nabízí mnoho vstupních bodů pro útočníky.

Rostoucí autonomie generativní AI přináší éru radikální změny. Proto s ní přichází také naléhavá vlna dalších bezpečnostních rizik, protože tyto pokročilé inteligentní agenti přecházejí z teorie do nasazení v několika oblastech, jako je zdravotnický sektor. Porozumění a zmírnění těchto nových hrozeb je zásadní pro odpovědné škálování AI a zvýšení odolnosti organizace proti kybernetickým útokům jakéhokoli druhu, ať už se jedná o škodlivý software, únik dat nebo dokonce dobře koordinované útoky na dodavatelský řetězec.

Odolnost ve fázi návrhu a implementace

Organizace musí přijmout komplexní a evoluční proaktivní obrannou strategii, aby řešily rostoucí bezpečnostní rizika způsobená AI, zejména ve zdravotnictví, kde jsou na hře nejenom blaho pacientů, ale také dodržování regulatorních opatření.

To vyžaduje systematický a podrobný přístup, počínaje vývojem a návrhem AI systémů a pokračujícím až po rozsáhlé nasazení těchto systémů.

  • Prvním a nejkritičtějším krokem, který organizace musí podniknout, je mapovat a modelovat hrozby pro celou AI pipeline, od ingestování dat po školení modelu, validaci, nasazení a inference. Tento krok usnadňuje přesnou identifikaci všech potenciálních bodů expozice a zranitelnosti s rizikovou granularitou na základě dopadu a pravděpodobnosti.
  • Druhým důležitým krokem je vytvořit zabezpečené architektury pro nasazení systémů a aplikací, které využívají velké jazykové modely (LLM), včetně těch s Agentic AI schopnostmi. To zahrnuje pečlivé zvažování různých opatření, jako je zabezpečení kontejnerů, bezpečný návrh API a bezpečné zpracování citlivých trénovacích dat.
  • Třetím krokem je, aby organizace pochopily a implementovaly doporučení různých standardů/rámců. Například dodržovat pokyny stanovené NIST AI Risk Management Framework pro komplexní identifikaci a zmírnění rizik. Mohly by také zvažovat OWASP rady týkající se jedinečných zranitelností zavedených aplikacemi LLM, jako je injekce promptů a nezabezpečené zpracování výstupu.
  • Dále klasické techniky modelování hrozeb také potřebují evoluci, aby efektivně spravovaly jedinečné a komplexní útoky generované Gen AI, včetně záludných útoků na otravu dat, které ohrožují integritu modelu a potenciál pro generování citlivého, zkresleného nebo nevhodně vyprodukovaného obsahu v AI výstupech.
  • Nakonec, i po nasazení, organizace budou muset zůstat ostražité, praktikovat pravidelné a přísné manévry red-teamingu a specializovaných bezpečnostních auditů AI, které cíleně zaměřují zdroje, jako je zkreslení, robustnost a jasnost, aby neustále objevily a zmírnily zranitelnosti v AI systémech.

Je třeba poznamenat, že základem vytváření silných AI systémů ve zdravotnictví je fundamentálně chránit celý AI životní cyklus, od vytvoření po nasazení, s jasným pochopením nových hrozeb a dodržováním zavedených bezpečnostních principů.

Opětovací opatření během provozního životního cyklu

Kromě počátečního zabezpečeného návrhu a nasazení vyžaduje robustní AI bezpečnostní postoj bdělou pozornost a aktivní obranu napříč AI životním cyklem. To vyžaduje nepřetržité monitorování obsahu, využívající AI poháněnou dohled, aby okamžitě detekovala citlivé nebo škodlivé výstupy, a to vše při dodržování politik uvolňování informací a oprávnění uživatelů. Během vývoje modelu a v produkčním prostředí budou organizace muset aktivně skenovat malware, zranitelnosti a adversářskou aktivitu současně. To jsou všechny, samozřejmě, doplňky tradičních bezpečnostních opatření.

Aby se podpořilo důvěra uživatelů a zlepšila interpretovatelnost AI rozhodování, je nezbytné pečlivě využívat Explainable AI (XAI) nástroje, aby se pochopila základní racionální rozhodnutí pro AI výstup a předpovědi.

Vylepšená kontrola a bezpečnost jsou také usnadněny automatizovaným objevováním dat a inteligentní klasifikací dat s dynamicky se měnícími klasifikátory, které poskytují kritický a aktuální pohled na neustále se měnící datové prostředí. Tyto iniciativy pramení z imperativu pro vynucování silných bezpečnostních kontrol, jako jsou jemně zrnité role-založené kontrolní metody (RBAC), rámců pro šifrování koncového bodu pro zajištění informací během přenosu a v klidu, a efektivní techniky maskování dat pro skrytí citlivých dat.

Důkladné bezpečnostní školení pro všechny obchodní uživatele, kteří pracují se systémy AI, je také zásadní, protože vytváří kritickou lidskou bránu, aby detekovala a neutralizovala možné sociální inženýrství a další AI související hrozby.

Zajištění budoucnosti Agentic AI

Základ udržitelné odolnosti proti se vyvíjejícím AI bezpečnostním hrozbám spočívá v navrhovaném vícedimenzionálním a kontinuálním metodě blízkého monitorování, aktivního skenování, jasně vysvětlování, inteligentního klasifikování a přísného zabezpečení AI systémů. To je, samozřejmě, v additionu k zavedení široce lidsky orientované bezpečnostní kultury spolu se zavedenými tradičními bezpečnostními kontrolami. Jak jsou autonomní AI agenti začleňováni do organizačních procesů, zvyšuje se potřeba robustních bezpečnostních kontrol. Dnešní realita je taková, že úniky dat v veřejných cloudech se skutečně dějí a stojí v průměru $5,17 milionu, jasně zdůrazňující hrozbu pro finance organizace, stejně jako její pověst.

Kromě revolučních inovací závisí budoucnost AI na rozvoji odolnosti se základem v zabudované bezpečnosti, otevřených provozních rámcích a přísných procedurách řízení. Vytvoření důvěry v tyto inteligentní agenty nakonec rozhodne, jak široce a trvale budou přijaty, a tím i budoucí směr transformačního potenciálu AI.

Vipin Varma je senior viceprezident a vedoucí praxe kybernetické bezpečnosti ve společnosti CitiusTech.
S více než 35 lety zkušeností v oblasti kybernetické bezpečnosti a širších ICT domén přináší Vipin hluboké odborné znalosti a strategické vedení pro bezpečnou, odolnou digitální transformaci napříč zdravotnickým ekosystémem.
Předtím, než nastoupil do CitiusTech, vedl Vipin kybernetickou bezpečnost pro globální klienty z oblasti životních věd, zdravotnictví, energetiky a veřejných služeb ve společnosti Tata Consultancy Services, kde strávil více než 12 let tvorbou strategií kybernetické bezpečnosti napříč regulovanými průmyslovými odvětvími. Předtím, než vstoupil do korporátní sféry, sloužil více než 23 let v Indické armádě, kde zastával klíčové role, včetně velení jednotky v aktivních protipovstaleckých operacích, vedení IT a komunikací pro mise OSN pro udržení míru v Súdánu a řízení složitých technologických programů.