Gezondheidszorg
Zorgen voor veerkrachtige beveiliging voor autonome AI in de gezondheidszorg

De woedende strijd tegen gegevenslekken vormt een steeds grotere uitdaging voor gezondheidsorganisaties wereldwijd. Volgens de huidige statistieken bedraagt de gemiddelde kosten van een gegevenslek nu $4,45 miljoen wereldwijd, een bedrag dat meer dan verdubbelt tot $9,48 miljoen voor zorgverleners die patiënten in de Verenigde Staten bedienen. Hierbij komt nog het moderne fenomeen van inter- en intra-organisatorische gegevensvermeerdering. Een verontrustende 40% van de gemelde lekken betreft informatie die is verspreid over meerdere omgevingen, waardoor het aanvalsoppervlak aanzienlijk wordt uitgebreid en veel toegangsmogelijkheden voor aanvallers worden geboden.
De groeiende autonomie van generatieve AI brengt een tijdperk van radicale verandering met zich mee. Daarmee komt ook de dringende golf van extra beveiligingsrisico’s, aangezien deze geavanceerde intelligente agenten uit theorie naar implementaties in verschillende domeinen, zoals de gezondheidssector, gaan. Het begrijpen en mitigeren van deze nieuwe bedreigingen is cruciaal om AI op verantwoorde wijze uit te breiden en de veerkracht van een organisatie tegen cyberaanvallen van welke aard dan ook te vergroten, of het nu gaat om kwaadaardige softwarebedreigingen, gegevenslekken of zelfs goed georkestreerde aanvallen op de toeleveringsketen.
Veerkracht op het ontwerp- en implementatiestadium
Organisaties moeten een uitgebreide en evolutionaire proactieve verdedigingsstrategie aannemen om de toenemende beveiligingsrisico’s veroorzaakt door AI, vooral in de gezondheidszorg, aan te pakken, waarbij het niet alleen om de welzijn van patiënten gaat, maar ook om de naleving van regelgevende maatregelen.
Dit vereist een systematische en uitgebreide aanpak, beginnend met de ontwikkeling en het ontwerp van AI-systemen en voortzetting tot de grootschalige implementatie van deze systemen.
- De eerste en meest kritieke stap die organisaties moeten ondernemen, is om hun hele AI-pijplijn in kaart te brengen en te bedreigen, van gegevensinname tot modeltraining, validatie, implementatie en inferentie. Deze stap maakt een precieze identificatie van alle potentiële punten van blootstelling en kwetsbaarheid met risicogranulariteit op basis van impact en waarschijnlijkheid mogelijk.
- Ten tweede is het belangrijk om beveiligde architectuur te creëren voor de implementatie van systemen en toepassingen die gebruikmaken van grote taalmodellen (LLM’s), waaronder die met Agentic AI-mogelijkheden. Dit houdt in dat verschillende maatregelen zorgvuldig worden overwogen, zoals containerbeveiliging, beveiligde API-ontwerp en het veilig omgaan met gevoelige trainingsdatasets.
- Ten derde moeten organisaties de aanbevelingen van verschillende standaarden/kaders begrijpen en implementeren. Bijvoorbeeld door de richtlijnen te volgen die zijn vastgesteld door NIST’s AI-risicobeheerkader voor een uitgebreide risicoidentificatie en -mitigatie. Zij kunnen ook OWASP’s advies overwegen over de unieke kwetsbaarheden die worden geïntroduceerd door LLM-toepassingen, zoals prompt-injectie en onveilig uitvoerbeheer.
- Daarnaast moeten klassieke bedreigingsmodelleringstechnieken ook evolueren om de unieke en ingewikkelde aanvallen gegenereerd door Gen AI effectief te beheren, waaronder insidious datapoisoning-aanvallen die de integriteit van modellen bedreigen en het potentieel voor het genereren van gevoelige, bevooroordeelde of ongepaste inhoud in AI-uitvoer.
- Ten slotte moeten organisaties, zelfs na implementatie, waakzaam blijven door regelmatig en streng rode teammanoeuvres en gespecialiseerde AI-beveiligingsaudits uit te voeren die specifiek zijn gericht op bronnen zoals vooroordelen, robuustheid en duidelijkheid om voortdurend kwetsbaarheden in AI-systemen te detecteren en te mitigeren.
Het is opvallend dat de basis voor het creëren van sterke AI-systemen in de gezondheidszorg erin bestaat om fundamenteel de hele AI-levenscyclus te beschermen, van creatie tot implementatie, met een duidelijk begrip van nieuwe bedreigingen en een naleving van gevestigde beveiligingsprincipes.
Maatregelen tijdens de operationele levenscyclus
Naast het initiële beveiligde ontwerp en de implementatie, vereist een robuuste AI-beveiligingshouding een waakzame aandacht voor detail en actieve verdediging gedurende de hele AI-levenscyclus. Dit vereist een continue monitoring van inhoud door AI-gedreven surveillance te gebruiken om onmiddellijk gevoelige of kwaadaardige uitvoer te detecteren, terwijl wordt voldaan aan informatie-uitgavebeleid en gebruikersmachtigingen. Tijdens modelontwikkeling en in de productieomgeving moeten organisaties actief scannen op malware, kwetsbaarheden en vijandelijke activiteit. Dit zijn allemaal complementair aan traditionele beveiligingsmaatregelen.
Om gebruikersvertrouwen te stimuleren en de interpretatie van AI-besluitvorming te verbeteren, is het essentieel om zorgvuldig Explainable AI (XAI)-tools te gebruiken om de onderliggende redenering voor AI-uitvoer en voorspellingen te begrijpen.
Verbeterde controle en beveiliging worden ook gefaciliteerd door geautomatiseerde gegevensontdekking en slimme gegevensclassificatie met dynamisch veranderende classificators, die een kritische en up-to-date weergave van de voortdurend veranderende gegevensomgeving bieden. Deze initiatieven zijn afgeleid van het imperatief om sterke beveiligingscontroles te handhaven, zoals fijngranige rolgebaseerde toegangscontrole (RBAC)-methoden, eind-tot-eindversleutelingskaders om informatie in transit en in rust te beschermen, en effectieve gegevensmaskeringstechnieken om gevoelige gegevens te verbergen.
Grondige beveiligingsbewustzijnstraining door alle zakelijke gebruikers die met AI-systemen werken, is ook essentieel, aangezien dit een kritieke menselijke firewall creëert om mogelijke sociale manipulatieaanvallen en andere AI-gerelateerde bedreigingen te detecteren en te neutraliseren.
De toekomst van Agentic AI beveiligen
De basis voor duurzame veerkracht in het licht van evoluerende AI-beveiligingsbedreigingen ligt in de voorgestelde multidimensionale en continue methode van nauwlettend monitoren, actief scannen, duidelijk uitleggen, intelligent classificeren en strikt beveiligen van AI-systemen. Dit is natuurlijk in aanvulling op het creëren van een breed mensgerichte beveiligingscultuur en volwassen traditionele beveiligingscontroles. Aangezien autonome AI-agents worden geïntegreerd in organisatorische processen, neemt de noodzaak voor robuuste beveiligingscontroles toe. De huidige realiteit is dat gegevenslekken in openbare clouds plaatsvinden en gemiddeld $5,17 miljoen kosten, wat duidelijk de bedreiging voor de financiën en reputatie van een organisatie onderstreept.
Naast revolutionaire innovaties hangt de toekomst van AI af van het ontwikkelen van veerkracht met een fundament van ingebedde beveiliging, open operationele kaders en strikte governanceprocedures. Het vestigen van vertrouwen in dergelijke intelligente agenten zal uiteindelijk bepalen hoe uitgebreid en duurzaam ze worden omarmd, waardoor de loop van de transformatieve potentie van AI wordt bepaald.












