Entre em contato

Qualquer agente de IA pode falar. Poucos são confiáveis.

Líderes de pensamento

Qualquer agente de IA pode falar. Poucos são confiáveis.

mm

A necessidade de agentes de IA na área da saúde é urgente. Em todo o setor, equipes sobrecarregadas são inundadas com tarefas que demandam muito tempo e atrasam o atendimento aos pacientes. Os médicos estão sobrecarregados, os call centers das operadoras de planos de saúde estão sobrecarregados e os pacientes ficam esperando por respostas para preocupações imediatas.

Agentes AI podem ajudar preenchendo lacunas profundas, ampliando o alcance e a disponibilidade da equipe clínica e administrativa e reduzindo o esgotamento da equipe de saúde e dos pacientes. Mas, antes de fazer isso, precisamos de uma base sólida para construir confiança nos agentes de IA. Essa confiança não virá de um tom de voz caloroso ou fluência conversacional. Ela vem da engenharia.

Mesmo com o aumento do interesse por agentes de IA e as manchetes alardeando a promessa da IA ​​agêntica, os líderes da área da saúde – responsáveis ​​perante seus pacientes e comunidades – permanecem hesitantes em implementar essa tecnologia em larga escala. Startups estão promovendo recursos agênticos que vão desde a automação de tarefas mundanas, como agendamento de consultas, até a comunicação e o atendimento de pacientes com alto nível de interação. No entanto, a maioria ainda precisa comprovar a segurança desses engajamentos.

Muitos deles nunca o farão.

A realidade é que qualquer um pode criar uma agente de voz Impulsionado por um modelo de linguagem de grande porte (LLM), dê um tom compassivo e crie um roteiro de conversa convincente. Existem muitas plataformas como esta anunciando seus agentes em todos os setores. Seus agentes podem ter aparência e soar diferentes, mas todos se comportam da mesma forma – propensos a alucinações, incapazes de verificar fatos críticos e sem mecanismos que garantam a responsabilização.

Essa abordagem – construir um invólucro muitas vezes muito tênue em torno de um LLM fundamental – pode funcionar em setores como varejo ou hospitalidade, mas fracassará na área da saúde. Modelos fundamentais são ferramentas extraordinárias, mas são em grande parte de uso geral; não foram treinados especificamente em protocolos clínicos, políticas de pagamento ou padrões regulatórios. Mesmo os agentes mais eloquentes, construídos com base nesses modelos, podem cair em território alucinatório, respondendo a perguntas que não deveriam, inventando fatos ou deixando de reconhecer quando um ser humano precisa ser incluído no processo.

As consequências desses comportamentos não são teóricas. Eles podem confundir os pacientes, interferir no atendimento e resultar em retrabalho humano dispendioso. Não se trata de um problema de inteligência. É um problema de infraestrutura.

Para operar com segurança, eficácia e confiabilidade na área da saúde, os agentes de IA precisam ser mais do que apenas vozes autônomas do outro lado da linha. Eles devem ser operados por sistemas projetados especificamente para controle, contexto e responsabilização. Com base na minha experiência na construção desses sistemas, veja como isso se manifesta na prática.

O controle da resposta pode tornar as alucinações inexistentes

Agentes de IA na área da saúde não podem simplesmente gerar respostas plausíveis. Eles precisam fornecer as respostas corretas, sempre. Isso requer um "espaço de ação" controlável – um mecanismo que permita à IA compreender e facilitar a conversa natural, mas que garanta que cada resposta possível seja delimitada por uma lógica predefinida e aprovada.

Com parâmetros de controle de resposta incorporados, os agentes podem consultar apenas protocolos verificados, procedimentos operacionais predefinidos e padrões regulatórios. A criatividade do modelo é aproveitada para orientar as interações em vez de improvisar fatos. É assim que os líderes da área da saúde podem garantir que o risco de alucinação é eliminado completamente – não por meio de testes em um piloto ou em um único grupo focal, mas projetando o risco desde o início.

Gráficos de conhecimento especializados podem garantir trocas confiáveis

O contexto de cada conversa sobre saúde é profundamente pessoal. Duas pessoas com diabetes tipo 2 podem morar no mesmo bairro e se enquadrar no mesmo perfil de risco. A elegibilidade delas para um medicamento específico varia de acordo com seu histórico médico, as diretrizes de tratamento do médico, o plano de saúde e as regras do formulário.

Os agentes de IA não só precisam de acesso a esse contexto, como também precisam ser capazes de raciocinar com ele em tempo real. Uma abordagem especializada gráfico de conhecimento oferece esse recurso. É uma forma estruturada de representar informações de diversas fontes confiáveis, permitindo que os agentes validem o que ouvem e garantam que as informações fornecidas sejam precisas e personalizadas. Agentes sem essa camada podem parecer informados, mas, na verdade, estão apenas seguindo fluxos de trabalho rígidos e preenchendo lacunas.

Sistemas de revisão robustos podem avaliar a precisão

Um paciente pode desligar o telefone com um agente de IA e se sentir satisfeito, mas o trabalho do agente está longe de terminar. As organizações de saúde precisam ter certeza de que o agente não apenas produziu informações corretas, mas também entendeu e documentou a interação. É aí que entram os sistemas automatizados de pós-processamento.

Um sistema de revisão robusto deve avaliar cada conversa com o mesmo nível de escrutínio que um supervisor humano com todo o tempo do mundo aplicaria. Ele deve ser capaz de identificar se a resposta foi precisa, garantir que as informações corretas foram capturadas e determinar se é necessário ou não acompanhamento. Se algo não estiver certo, o agente deve ser capaz de encaminhar para um humano, mas se tudo estiver correto, a tarefa pode ser riscada da lista de tarefas com segurança.

Além desses três elementos fundamentais necessários para construir confiança, toda infraestrutura de IA com agentes precisa de uma estrutura robusta de segurança e conformidade que proteja os dados dos pacientes e garanta que os agentes operem dentro dos limites regulamentados. Essa estrutura deve incluir a adesão estrita aos padrões comuns do setor, como SOC 2 e HIPAA, mas também deve ter processos integrados para testes de viés, redação de informações de saúde protegidas e retenção de dados.

Essas salvaguardas de segurança não se limitam a cumprir requisitos de conformidade. Elas constituem a espinha dorsal de um sistema confiável que garante que cada interação seja gerenciada no nível esperado por pacientes e provedores.

O setor da saúde não precisa de mais entusiasmo com a IA. Precisa de uma infraestrutura de IA confiável. No caso da IA ​​agêntica, a confiança não será conquistada, mas sim projetada.

Shyam Rajagopalan é cofundador e CTO da InfinidadeComo um líder experiente e prático, Rajagopalan colabora ativamente com sua equipe, contribuindo para a codificação e fornecendo orientação sobre design técnico e de produto.

Antes da Infinitus, como arquiteto de software, Rajagopalan projetou, construiu e lançou sistemas altamente seguros e de alto rendimento para as plataformas de login e segurança da Snap Inc. e do Google. Anteriormente, ele liderou a equipe de engenharia como Diretor de Engenharia na startup de inteligência móvel Quettra (adquirida pela Similar Web). Rajagopalan iniciou sua carreira na MIPS e na Nvidia, projetando e construindo CPUs de alto desempenho.