toco Vivek Desai, Diretor de Tecnologia, América do Norte da RLDatix - Série de entrevistas - Unite.AI
Entre em contato

Entrevistas

Vivek Desai, Diretor de Tecnologia, América do Norte da RLDatix – Série de Entrevistas

mm
Atualização do on

Vivek Desai é o Chief Technology Officer da América do Norte em RLDatix, um empresa conectada de software e serviços de operações de saúde. RLDatix tem a missão de mudar a saúde. Eles ajudam as organizações a promover cuidados mais seguros e eficientes, fornecendo ferramentas de governança, risco e conformidade que impulsionam a melhoria geral e a segurança.

O que inicialmente atraiu você para a ciência da computação e a segurança cibernética?

Fui atraído pelas complexidades daquilo que a ciência da computação e a segurança cibernética estão tentando resolver – há sempre um desafio emergente a explorar. Um ótimo exemplo disso é quando a nuvem começou a ganhar força. Foi muito promissor, mas também levantou algumas questões sobre a segurança da carga de trabalho. Ficou muito claro desde o início que os métodos tradicionais eram uma solução provisória e que as organizações em geral precisariam desenvolver novos processos para proteger eficazmente as cargas de trabalho na nuvem. Navegar por esses novos métodos foi uma jornada particularmente emocionante para mim e para muitos outros que trabalham nesta área. É uma indústria dinâmica e em evolução, por isso cada dia traz algo novo e excitante.

Você poderia compartilhar algumas das responsabilidades atuais que você tem como CTO da RLDatix?  

Atualmente, estou focado em liderar nossa estratégia de dados e encontrar maneiras de criar sinergias entre nossos produtos e os dados que eles contêm, para entender melhor as tendências. Muitos dos nossos produtos armazenam tipos de dados semelhantes, por isso o meu trabalho é encontrar formas de quebrar esses silos e facilitar o acesso aos dados aos nossos clientes, tanto hospitais como sistemas de saúde. Com isso, também estou trabalhando em nossa estratégia global de inteligência artificial (IA) para informar o acesso e a utilização desses dados em todo o ecossistema.

Manter-se atualizado sobre as tendências emergentes em vários setores é outro aspecto crucial da minha função, para garantir que estamos caminhando na direção estratégica correta. Atualmente estou de olho nos grandes modelos de linguagem (LLMs). Como empresa, estamos a trabalhar para encontrar formas de integrar LLMs na nossa tecnologia, para capacitar e melhorar os seres humanos, especificamente os prestadores de cuidados de saúde, reduzir a sua carga cognitiva e permitir-lhes concentrar-se no cuidado dos pacientes.

Na postagem do seu blog do LinkedIn intitulada “Uma reflexão sobre meu primeiro ano como CTO”, você escreveu, “CTOs não trabalham sozinhos. Eles fazem parte de uma equipe.” Você poderia falar sobre alguns dos desafios que enfrentou e como lidou com a delegação e o trabalho em equipe em projetos que são inerentemente desafiadores do ponto de vista técnico?

O papel de um CTO mudou fundamentalmente na última década. Já se foram os dias de trabalhar em uma sala de servidores. Agora, o trabalho é muito mais colaborativo. Juntos, em todas as unidades de negócios, alinhamos as prioridades organizacionais e transformamos essas aspirações em requisitos técnicos que nos impulsionam. Os hospitais e os sistemas de saúde enfrentam atualmente muitos desafios diários, desde a gestão da força de trabalho até às restrições financeiras, e a adoção de novas tecnologias pode nem sempre ser uma prioridade máxima. Nosso maior objetivo é mostrar como a tecnologia pode ajudar a mitigar esses desafios, em vez de acrescentá-los, e o valor geral que ela traz para seus negócios, funcionários e pacientes em geral. Este esforço não pode ser feito sozinho ou mesmo dentro da minha equipe, portanto a colaboração abrange unidades multidisciplinares para desenvolver uma estratégia coesa que mostre esse valor, seja ele decorrente de dar aos clientes acesso a insights de dados desbloqueados ou da ativação de processos que eles atualmente não conseguem executar .

Qual é o papel da inteligência artificial no futuro das operações de saúde conectadas?

À medida que os dados integrados se tornam mais disponíveis com a IA, eles podem ser utilizados para conectar sistemas díspares e melhorar a segurança e a precisão em toda a continuidade do atendimento. Este conceito de operações de saúde conectadas é uma categoria na qual estamos focados na RLDatix, pois desbloqueia dados e insights acionáveis ​​para os tomadores de decisão de saúde – e a IA é essencial para tornar isso uma realidade.

Um aspecto não negociável desta integração é garantir que o uso de dados seja seguro e compatível e que os riscos sejam compreendidos. Somos líderes de mercado em política, risco e segurança, o que significa que temos uma ampla quantidade de dados para treinar LLMs básicos com mais precisão e confiabilidade. Para alcançar operações de saúde verdadeiramente conectadas, o primeiro passo é fundir as soluções díspares e o segundo é extrair dados e normalizá-los entre essas soluções. Os hospitais se beneficiarão enormemente de um grupo de soluções interconectadas que podem combinar conjuntos de dados e fornecer valor acionável aos usuários, em vez de manter conjuntos de dados separados de soluções pontuais individuais.

Em uma palestra recente, a diretora de produtos Barbara Staruk compartilhou como a RLDatix está aproveitando a IA generativa e grandes modelos de linguagem para agilizar e automatizar a notificação de incidentes de segurança do paciente. Você poderia explicar como isso funciona?

Esta é uma iniciativa realmente significativa para a RLDatix e um ótimo exemplo de como estamos maximizando o potencial dos LLMs. Quando os hospitais e os sistemas de saúde completam os relatórios de incidentes, existem atualmente três formatos padrão para determinar o nível de dano indicado no relatório: os Formatos Comuns da Agência para Pesquisa e Qualidade em Saúde, o Conselho Coordenador Nacional para Relatórios e Prevenção de Erros de Medicamentos e o Desempenho em Saúde. Classificação de Eventos de Segurança (SEC) de Melhoria (HPI). No momento, podemos treinar facilmente um LLM para ler o texto de um relatório de incidente. Se um paciente falecer, por exemplo, o LLM pode selecionar essa informação perfeitamente. O desafio, no entanto, reside na formação do LLM para determinar o contexto e distinguir entre categorias mais complexas, tais como danos permanentes graves, uma taxonomia incluída no HPI SEC, por exemplo, versus danos temporários graves. Se a pessoa que relata não incluir contexto suficiente, o LLM não será capaz de determinar o nível de categoria apropriado de dano para aquele incidente específico de segurança do paciente.

A RLDatix pretende implementar uma taxonomia mais simples, globalmente, em todo o nosso portfólio, com categorias concretas que possam ser facilmente distinguidas pelo LLM. Com o tempo, os usuários poderão simplesmente escrever o que ocorreu e o LLM tratará disso a partir daí, extraindo todas as informações importantes e preenchendo previamente os formulários de incidentes. Isto não só representa uma poupança de tempo significativa para uma força de trabalho já sobrecarregada, como também, à medida que o modelo se torna ainda mais avançado, seremos capazes de identificar tendências críticas que permitirão às organizações de saúde tomar decisões mais seguras em todos os níveis.

Quais são algumas outras maneiras pelas quais a RLDatix começou a incorporar LLMs em suas operações?

Outra maneira de aproveitarmos os LLMs internamente é agilizar o processo de credenciamento. As credenciais de cada provedor são formatadas de maneira diferente e contêm informações exclusivas. Para colocar isso em perspectiva, pense em como o currículo de cada pessoa parece diferente – desde as fontes até a experiência profissional, a educação e a formatação geral. O credenciamento é semelhante. Onde o provedor cursou a faculdade? Qual é a certificação deles? Em quais artigos eles são publicados? Cada profissional de saúde fornecerá essas informações à sua maneira.

Na RLDatix, os LLMs nos permitem ler essas credenciais e extrair todos esses dados em um formato padronizado para que aqueles que trabalham na entrada de dados não tenham que procurá-los extensivamente, permitindo-lhes gastar menos tempo no componente administrativo e concentrar seus esforços. tempo em tarefas significativas que agregam valor.

A segurança cibernética sempre foi um desafio, especialmente com a mudança para tecnologias baseadas em nuvem. Você poderia discutir alguns desses desafios?

Cíber segurança is desafiador, por isso é importante trabalhar com o parceiro certo. Garantir que os LLMs permaneçam seguros e em conformidade é a consideração mais importante ao aproveitar esta tecnologia. Se a sua organização não tiver uma equipe interna dedicada para fazer isso, pode ser extremamente desafiador e demorado. É por isso que trabalhamos com a Amazon Web Services (AWS) na maioria das nossas iniciativas de segurança cibernética. A AWS nos ajuda a incutir segurança e conformidade como princípios fundamentais em nossa tecnologia para que a RLDatix possa se concentrar no que realmente fazemos bem – que é criar ótimos produtos para nossos clientes em todos os nossos respectivos setores verticais.

Quais são algumas das novas ameaças à segurança que você viu com a recente e rápida adoção de LLMs?

Do ponto de vista do RLDatix, há várias considerações nas quais estamos trabalhando enquanto desenvolvemos e treinamos LLMs. Um foco importante para nós é mitigar preconceitos e injustiças. Os LLMs são tão bons quanto os dados nos quais são treinados. Fatores como género, raça e outros dados demográficos podem incluir muitos preconceitos inerentes porque o próprio conjunto de dados é tendencioso. Por exemplo, pense em como o sudeste dos Estados Unidos usa a palavra “vocês” na linguagem cotidiana. Este é um viés linguístico único, inerente a uma população específica de pacientes, que os pesquisadores devem considerar ao treinar o LLM para distinguir com precisão as nuances linguísticas em comparação com outras regiões. Estes tipos de preconceitos devem ser tratados em grande escala quando se trata de alavancar o LLMS nos cuidados de saúde, uma vez que treinar um modelo numa população de pacientes não significa necessariamente que esse modelo funcionará noutra.

Manter a segurança, a transparência e a responsabilização também são grandes pontos de foco para a nossa organização, bem como mitigar quaisquer oportunidades de alucinações e desinformação. Garantir que estamos abordando ativamente quaisquer questões de privacidade, que entendemos como um modelo alcançou uma determinada resposta e que temos um ciclo de desenvolvimento seguro em funcionamento são componentes importantes de uma implementação e manutenção eficazes.

Quais são alguns outros algoritmos de aprendizado de máquina usados ​​no RLDatix?

Usar o aprendizado de máquina (ML) para descobrir insights críticos de agendamento tem sido um caso de uso interessante para nossa organização. Especificamente no Reino Unido, temos explorado como aproveitar o ML para entender melhor como ocorre a escalação, ou agendamento de enfermeiros e médicos. O RLDatix tem acesso a uma enorme quantidade de dados de agendamento da última década, mas o que podemos fazer com todas essas informações? É aí que entra o ML. Estamos utilizando um modelo de ML para analisar esses dados históricos e fornecer informações sobre como poderá ser a situação da equipe daqui a duas semanas, em um hospital específico ou em uma determinada região.

Esse caso de uso específico é um modelo de ML muito viável, mas estamos indo ainda mais longe ao conectá-lo a eventos da vida real. Por exemplo, e se olharmos todos os horários de futebol da região? Sabemos em primeira mão que os eventos desportivos normalmente provocam mais lesões e que um hospital local terá provavelmente mais pacientes internados no dia de um evento em comparação com um dia normal. Estamos trabalhando com a AWS e outros parceiros para explorar quais conjuntos de dados públicos podemos semear para tornar o agendamento ainda mais simplificado. Já temos dados que sugerem que veremos um aumento de pacientes em torno de grandes eventos esportivos ou mesmo de condições climáticas adversas, mas o modelo de ML pode dar um passo adiante, pegando esses dados e identificando tendências críticas que ajudarão a garantir que os hospitais sejam adequadamente atendidos. pessoal, reduzindo, em última análise, a pressão sobre a nossa força de trabalho e levando a nossa indústria um passo adiante na obtenção de cuidados de saúde mais seguros para todos.

Obrigado pela ótima entrevista, os leitores que desejam saber mais devem visitar RLDatix.

Sócio fundador da unite.AI e membro do Conselho de Tecnologia da Forbes, Antoine é um futurista que é apaixonado pelo futuro da IA ​​e da robótica.

Ele também é o fundador da Valores Mobiliários.io, um site que foca em investir em tecnologia disruptiva.