Entre em contato

Garantindo segurança resiliente para IA autônoma na área da saúde

Líderes de pensamento

Garantindo segurança resiliente para IA autônoma na área da saúde

mm

A guerra feroz contra violações de dados representa um desafio crescente para organizações de saúde em todo o mundo. De acordo com estatísticas atuais, o custo médio de uma violação de dados agora é de $ 4.45 milhões em todo o mundo, um valor que mais que dobra para US$ 9.48 milhões para provedores de saúde que atendem pacientes nos Estados Unidos. Somando-se a essa questão já assustadora está o fenômeno moderno da proliferação de dados inter e intraorganizacionais. Um dado preocupante 40% das violações divulgadas envolvem informações espalhadas por vários ambientes, expandindo muito a superfície de ataque e oferecendo muitas vias de entrada para invasores.

A crescente autonomia da IA ​​generativa traz consigo uma era de mudanças radicais. Consequentemente, traz consigo a onda premente de riscos de segurança adicionais, à medida que esses agentes inteligentes avançados deixam de ser apenas teorias e passam a ser implementados em diversos domínios, como o setor da saúde. Compreender e mitigar essas novas ameaças é crucial para ampliar a escala da IA ​​de forma responsável e aumentar a resiliência de uma organização contra ataques cibernéticos de qualquer natureza, sejam eles ameaças de software malicioso, violação de dados ou até mesmo ataques bem orquestrados à cadeia de suprimentos.

Resiliência na fase de projeto e implementação

As organizações devem adotar uma estratégia de defesa proativa abrangente e evolutiva para lidar com os crescentes riscos de segurança causados ​​pela IA, especialmente na área da saúde, onde os riscos envolvem tanto o bem-estar do paciente quanto a conformidade com as medidas regulatórias.

Isso requer uma abordagem sistemática e elaborada, começando com o desenvolvimento e design do sistema de IA e continuando até a implantação em larga escala desses sistemas.

  • O primeiro e mais crítico passo que as organizações precisam realizar é mapear e modelar ameaças em todo o seu pipeline de IA, desde a ingestão de dados até o treinamento, validação, implantação e inferência do modelo. Essa etapa facilita a identificação precisa de todos os potenciais pontos de exposição e vulnerabilidade, com granularidade de risco baseada em impacto e probabilidade.
  • Em segundo lugar, é importante criar arquiteturas seguras para a implantação de sistemas e aplicações que utilizam grandes modelos de linguagem (LLMs), incluindo aqueles com IA Agentic capacidades. Isso envolve considerar meticulosamente diversas medidas, como segurança de contêineres, design de API seguro e manuseio seguro de conjuntos de dados de treinamento sensíveis.
  • Em terceiro lugar, as organizações precisam compreender e implementar as recomendações de vários padrões/estruturas. Por exemplo, aderir às diretrizes estabelecidas por NIST's Estrutura de Gestão de Riscos de IA para identificação e mitigação abrangentes de riscos. Eles também poderiam considerar Conselho da OWASP sobre as vulnerabilidades exclusivas introduzidas por aplicativos LLM, como injeção rápida e tratamento de saída inseguro.
  • Além disso, as técnicas clássicas de modelagem de ameaças também precisam evoluir para gerenciar de forma eficaz os ataques únicos e complexos gerados pela Gen AI, incluindo ataques insidiosos de envenenamento de dados que ameaçam a integridade do modelo e o potencial de gerar conteúdo sensível, tendencioso ou produzido de forma inadequada nas saídas de IA.
  • Por fim, mesmo após a implantação, as organizações precisarão permanecer vigilantes praticando manobras regulares e rigorosas de red-teaming e auditorias especializadas de segurança de IA que visem especificamente fontes como viés, robustez e clareza para descobrir e mitigar continuamente vulnerabilidades em sistemas de IA.

Notavelmente, a base da criação de sistemas de IA fortes na área da saúde é proteger fundamentalmente todo o ciclo de vida da IA, da criação à implantação, com uma compreensão clara de novas ameaças e adesão aos princípios de segurança estabelecidos.

Medidas durante o ciclo de vida operacional

Além do design e da implantação seguros iniciais, uma postura robusta de segurança de IA exige atenção vigilante aos detalhes e defesa ativa em todo o ciclo de vida da IA. Isso exige o monitoramento contínuo do conteúdo, utilizando a vigilância orientada por IA para detectar imediatamente saídas sensíveis ou maliciosas, respeitando as políticas de divulgação de informações e as permissões de usuário. Durante o desenvolvimento do modelo e no ambiente de produção, as organizações precisarão verificar ativamente a presença de malware, vulnerabilidades e atividades adversas simultaneamente. Todas essas medidas, é claro, são complementares às medidas tradicionais de segurança cibernética.

Para incentivar a confiança do usuário e melhorar a interpretabilidade da tomada de decisões da IA, é essencial usar com cuidado IA explicável Ferramentas (XAI) para entender a lógica subjacente à produção e às previsões da IA.

O controle e a segurança aprimorados também são facilitados pela descoberta automatizada de dados e pela classificação inteligente de dados com classificadores dinâmicos, que fornecem uma visão crítica e atualizada do ambiente de dados em constante mudança. Essas iniciativas decorrem da necessidade de implementar controles de segurança robustos, como métodos refinados de controle de acesso baseado em funções (RBAC), estruturas de criptografia de ponta a ponta para proteger informações em trânsito e em repouso, e técnicas eficazes de mascaramento de dados para ocultar dados confidenciais.

Treinamento completo de conscientização sobre segurança por todos os usuários empresariais que lidam com sistemas de IA também é essencial, pois estabelece um firewall humano crítico para detectar e neutralizar possíveis ataques de engenharia social e outras ameaças relacionadas à IA.

Garantindo o futuro da IA ​​Agentic

A base da resiliência sustentada diante da evolução das ameaças à segurança da IA ​​reside no método multidimensional e contínuo proposto para monitorar de perto, escanear ativamente, explicar com clareza, classificar de forma inteligente e proteger rigorosamente os sistemas de IA. Isso, é claro, se soma ao estabelecimento de uma cultura de segurança amplamente orientada para o ser humano, juntamente com controles tradicionais de segurança cibernética maduros. À medida que agentes autônomos de IA são incorporados aos processos organizacionais, a necessidade de controles de segurança robustos aumenta. A realidade atual é que violações de dados em nuvens públicas acontecem e custam, em média, US$ 1.000. $ 5.17 milhões , enfatizando claramente a ameaça às finanças e à reputação de uma organização.

Além de inovações revolucionárias, o futuro da IA ​​depende do desenvolvimento de resiliência com base em segurança incorporada, estruturas operacionais abertas e procedimentos rigorosos de governança. Estabelecer confiança nesses agentes inteligentes determinará, em última análise, quão ampla e duradoura será sua adoção, moldando o próprio curso do potencial transformador da IA.

Vipin Varma é vice-presidente sênior e chefe da prática de segurança cibernética da CitiusTech.

Com mais de 35 anos de experiência em segurança cibernética e domínios mais amplos de TIC, Vipin traz profundo conhecimento e liderança estratégica para impulsionar uma transformação digital segura e resiliente em todo o ecossistema de saúde.

Antes da CitiusTech, Vipin liderou a área de segurança cibernética para clientes globais de ciências biológicas, saúde, energia e serviços públicos na Tata Consultancy Services, onde passou mais de 12 anos moldando estratégias de segurança cibernética em setores regulamentados. Antes de ingressar no setor corporativo, serviu por mais de 23 anos no Exército Indiano, onde ocupou cargos importantes, incluindo o comando de uma unidade em operações ativas de contrainsurgência, a liderança de TI e comunicações para uma missão de paz da ONU no Sudão e a gestão de programas tecnológicos complexos.