stub Vivek Desai, Chief Technology Officer, Nordamerika på RLDatix - Intervjuserie - Unite.AI
Anslut dig till vårt nätverk!

Intervjuer

Vivek Desai, Chief Technology Officer, Nordamerika på RLDatix – Intervjuserie

mm
Uppdaterad on

Vivek Desai är Chief Technology Officer av Nordamerika kl RLDatix, en anslutet vårdföretag för programvara och tjänster. RLDatix är på ett uppdrag att förändra vården. De hjälper organisationer att driva en säkrare och effektivare vård genom att tillhandahålla verktyg för styrning, risk och efterlevnad som driver övergripande förbättringar och säkerhet.

Vad lockade dig från början till datavetenskap och cybersäkerhet?

Jag drogs till komplexiteten i vad datavetenskap och cybersäkerhet försöker lösa – det finns alltid en framväxande utmaning att utforska. Ett bra exempel på detta är när molnet först började få dragkraft. Det höll mycket lovande, men väckte också några frågor kring arbetsbelastningssäkerhet. Det var tidigt väldigt tydligt att traditionella metoder var ett stopp, och att organisationer över hela linjen skulle behöva utveckla nya processer för att effektivt säkra arbetsbelastningar i molnet. Att navigera i dessa nya metoder var en särskilt spännande resa för mig och många andra som arbetar inom detta område. Det är en dynamisk och utvecklande bransch, så varje dag för med sig något nytt och spännande.

Skulle du kunna dela några av de nuvarande ansvarsområden som du har som CTO för RLDatix?  

För närvarande är jag fokuserad på att leda vår datastrategi och hitta sätt att skapa synergier mellan våra produkter och den data de har, för att bättre förstå trender. Många av våra produkter innehåller liknande typer av data, så mitt jobb är att hitta sätt att bryta ner dessa silos och göra det enklare för våra kunder, både sjukhus och hälsosystem, att komma åt datan. Med detta arbetar jag också på vår globala strategi för artificiell intelligens (AI) för att informera om denna dataåtkomst och användning i hela ekosystemet.

Att hålla sig uppdaterad om nya trender inom olika branscher är en annan viktig aspekt av min roll, för att säkerställa att vi är på väg i rätt strategisk riktning. Jag håller för närvarande noga koll på stora språkmodeller (LLM). Som företag arbetar vi för att hitta sätt att integrera LLM i vår teknik, för att stärka och förbättra människor, särskilt vårdgivare, minska deras kognitiva belastning och göra det möjligt för dem att fokusera på att ta hand om patienter.

I ditt LinkedIn-blogginlägg med titeln "En reflektion över mitt första år som CTO", skrev du, "CTO:er fungerar inte ensamma. De är en del av ett team." Skulle du kunna utveckla några av de utmaningar du har ställts inför och hur du har tacklat delegering och lagarbete på projekt som är tekniskt utmanande?

Rollen som CTO har förändrats i grunden under det senaste decenniet. Dagarna av att arbeta i ett serverrum är förbi. Nu är jobbet mycket mer samarbete. Tillsammans, över affärsenheterna, anpassar vi oss till organisatoriska prioriteringar och omvandlar dessa ambitioner till tekniska krav som driver oss framåt. Sjukhus och hälsosystem navigerar för närvarande i så många dagliga utmaningar, från personalledning till ekonomiska begränsningar, och införandet av ny teknik kanske inte alltid är en högsta prioritet. Vårt största mål är att visa upp hur teknik kan hjälpa till att mildra dessa utmaningar, snarare än att lägga till dem, och det övergripande värdet den tillför deras verksamhet, anställda och patienter i stort. Denna ansträngning kan inte göras ensam eller ens inom mitt team, så samarbetet sträcker sig över multidisciplinära enheter för att utveckla en sammanhållen strategi som kommer att visa upp det värdet, oavsett om det härrör från att ge kunder tillgång till olåsta datainsikter eller aktivera processer som de för närvarande inte kan utföra .

Vilken roll har artificiell intelligens i framtiden för uppkopplad sjukvårdsverksamhet?

När integrerad data blir mer tillgänglig med AI kan den användas för att koppla samman olika system och förbättra säkerheten och noggrannheten över hela vården. Det här konceptet med ansluten sjukvårdsverksamhet är en kategori som vi fokuserar på på RLDatix eftersom det låser upp handlingsbara data och insikter för beslutsfattare inom sjukvården – och AI är en viktig del för att göra det till verklighet.

En icke förhandlingsbar aspekt av denna integration är att säkerställa att dataanvändningen är säker och kompatibel, och att riskerna förstås. Vi är marknadsledare inom policy, risk och säkerhet, vilket innebär att vi har en riklig mängd data för att utbilda grundläggande LLM:er med mer noggrannhet och tillförlitlighet. För att uppnå verklig uppkopplad vårdverksamhet är det första steget att slå samman de olika lösningarna, och det andra är att extrahera data och normalisera den över dessa lösningar. Sjukhus kommer att dra stor nytta av en grupp sammanlänkade lösningar som kan kombinera datamängder och ge användarna praktiskt värde, snarare än att upprätthålla separata datamängder från individuella punktlösningar.

I en ny keynote delade Chief Product Officer Barbara Staruk hur RLDatix utnyttjar generativ AI och stora språkmodeller för att effektivisera och automatisera rapportering av patientsäkerhetsincidenter. Kan du utveckla hur detta fungerar?

Detta är ett riktigt viktigt initiativ för RLDatix och ett bra exempel på hur vi maximerar potentialen hos LLM. När sjukhus och hälsosystem fyller i incidentrapporter finns det för närvarande tre standardformat för att bestämma skadenivån som anges i rapporten: Myndigheten för sjukvårdsforskning och -kvalitets gemensamma format, Nationella samordningsrådet för felrapportering och förebyggande av medicinering och sjukvårdens resultat Improvement (HPI) Safety Event Classification (SEC). Just nu kan vi enkelt träna en LLM att läsa igenom text i en incidentrapport. Om en patient går bort, till exempel, kan LLM sömlöst plocka ut den informationen. Utmaningen ligger dock i att träna LLM för att bestämma sammanhang och skilja mellan mer komplexa kategorier, såsom allvarlig permanent skada, en taxonomi som ingår i HPI SEC till exempel, kontra allvarliga tillfälliga skador. Om den person som rapporterar inte innehåller tillräckligt med sammanhang, kommer LLM inte att kunna bestämma den lämpliga skadekategorinivån för just den patientsäkerhetsincidenten.

RLDatix siktar på att implementera en enklare taxonomi, globalt, över vår portfölj, med konkreta kategorier som lätt kan särskiljas av LLM. Med tiden kommer användare helt enkelt att kunna skriva vad som hände och LLM kommer att hantera det därifrån genom att extrahera all viktig information och förfylla incidentformulär. Detta är inte bara en betydande tidsbesparing för en redan ansträngd arbetskraft, utan när modellen blir ännu mer avancerad kommer vi också att kunna identifiera kritiska trender som gör det möjligt för vårdorganisationer att fatta säkrare beslut över hela linjen.

Vilka andra sätt har RLDatix börjat införliva LLM i sin verksamhet?

Ett annat sätt vi utnyttjar LLM internt är att effektivisera autentiseringsprocessen. Varje leverantörs autentiseringsuppgifter är olika formaterade och innehåller unik information. För att sätta det i perspektiv, tänk på hur allas CV ser olika ut – från typsnitt, till arbetslivserfarenhet, till utbildning och övergripande formatering. Credentialing är liknande. Var gick leverantören på college? Vad är deras certifiering? Vilka artiklar publiceras de i? Varje vårdpersonal kommer att tillhandahålla den informationen på sitt eget sätt.

På RLDatix låter LLMs oss läsa igenom dessa referenser och extrahera all denna data till ett standardiserat format så att de som arbetar med datainmatning inte behöver söka mycket efter det, vilket gör att de kan lägga mindre tid på den administrativa komponenten och fokusera sina tid på meningsfulla uppgifter som ger mervärde.

Cybersäkerhet har alltid varit utmanande, särskilt med övergången till molnbaserad teknik, skulle du kunna diskutera några av dessa utmaningar?

Cybersäkerhet is utmanande, därför är det viktigt att arbeta med rätt partner. Att säkerställa att LLM:er förblir säkra och kompatibla är den viktigaste faktorn när man använder sig av denna teknik. Om din organisation inte har den dedikerade personalen internt för att göra detta kan det vara otroligt utmanande och tidskrävande. Det är därför vi arbetar med Amazon Web Services (AWS) på de flesta av våra cybersäkerhetsinitiativ. AWS hjälper oss att ingjuta säkerhet och efterlevnad som kärnprinciper inom vår teknologi så att RLDatix kan fokusera på det vi verkligen gör bra – vilket bygger fantastiska produkter för våra kunder i alla våra respektive vertikaler.

Vilka är några av de nya säkerhetshoten som du har sett med den senaste tidens snabba introduktion av LLM?

Ur ett RLDatix-perspektiv finns det flera överväganden vi arbetar igenom när vi utvecklar och utbildar LLM:er. Ett viktigt fokus för oss är att mildra partiskhet och orättvisa. LLM:er är bara så bra som den information de är utbildad på. Faktorer som kön, ras och annan demografi kan inkludera många inneboende fördomar eftersom själva datasetet är partiskt. Tänk till exempel på hur sydöstra USA använder ordet "y'all" i vardagligt språk. Detta är en unik språkbias som är inneboende för en specifik patientpopulation som forskare måste överväga när de tränar LLM för att exakt särskilja språknyanser jämfört med andra regioner. Dessa typer av fördomar måste hanteras i stor skala när det gäller att utnyttja LLMS inom sjukvården, eftersom utbildning av en modell inom en patientpopulation inte nödvändigtvis betyder att modellen kommer att fungera i en annan.

Att upprätthålla säkerhet, transparens och ansvarsskyldighet är också stora fokuspunkter för vår organisation, samt att mildra eventuella möjligheter till hallucinationer och desinformation. Att säkerställa att vi aktivt tar itu med eventuella integritetsproblem, att vi förstår hur en modell nådde ett visst svar och att vi har en säker utvecklingscykel på plats är alla viktiga komponenter för effektiv implementering och underhåll.

Vilka andra maskininlärningsalgoritmer används på RLDatix?

Att använda maskininlärning (ML) för att avslöja kritiska schemaläggningsinsikter har varit ett intressant användningsfall för vår organisation. Specifikt i Storbritannien har vi undersökt hur man kan utnyttja ML för att bättre förstå hur tjänstgöring, eller schemaläggning av sjuksköterskor och läkare, sker. RLDatix har tillgång till en enorm mängd schemaläggningsdata från det senaste decenniet, men vad kan vi göra med all den informationen? Det är där ML kommer in. Vi använder en ML-modell för att analysera den historiska datan och ge inblick i hur en bemanningssituation kan se ut om två veckor, på ett specifikt sjukhus eller en viss region.

Det specifika användningsfallet är en mycket möjlig ML-modell, men vi pressar nålen ännu längre genom att koppla den till händelser i verkligheten. Tänk till exempel om vi tittade på alla fotbollsscheman inom området? Vi vet från första hand att sportevenemang vanligtvis leder till fler skador och att ett lokalt sjukhus sannolikt kommer att ha fler slutenvårdspatienter på dagen för ett evenemang jämfört med en vanlig dag. Vi arbetar med AWS och andra partners för att utforska vilka offentliga datamängder som vi kan skapa för att göra schemaläggningen ännu mer strömlinjeformad. Vi har redan data som tyder på att vi kommer att se en ökning av patienter kring stora sportevenemang eller till och med dåligt väder, men ML-modellen kan ta det ett steg längre genom att ta dessa data och identifiera kritiska trender som kommer att hjälpa till att säkerställa att sjukhusen är tillräckligt bemannad, vilket i slutändan minskar belastningen på vår personal och tar vår bransch ett steg längre för att uppnå en säkrare vård för alla.

Tack för den fina intervjun, läsare som vill veta mer bör besöka RLDatix.

En av grundarna av unite.AI och en medlem av Forbes Technology Council, Antoine är en futurist som brinner för framtiden för AI och robotik.

Han är också grundare av Securities.io, en webbplats som fokuserar på att investera i disruptiv teknik.