Connect with us

Intervjuer

Matt Walz, CEO i Trialbee – Intervju-serie

mm

Matt Walz er administrerende direktør i Trialbee, en global leder innen teknologidrevet pasientrekruttering. Han har mer enn 20 års erfaring med programvare og ledelse i life sciences-industrien. Matt startet sin karriere som utvikler og hadde forskjellige tekniske og ledelsesroller i Rollins Corporation, PSCI, Microsoft, Morgan Lewis og Datalabs. I 2006 var Matt med på å grunnlegge NextDocs, som vokste til å bli en global leder innen klinisk, kvalitet og regulatorisk dokumenthåndtering, der han var CTO, CSO og styremedlem i 9 år. Før han ble med i Trialbee, tilbrakte Matt 5 år som generaldirektør for life sciences og VP Strategic Accounts for Aurea Software, som hadde kjøpt NextDocs.

Trialbee er et helse-teknologiselskap som strømlinjeformer pasientrekruttering for kliniske studier. Ved å utnytte dataanalyse, digital markedsføring og realverdensbevis, matcher, engasjerer og forkvalifiserer det pasienter for å akselerere innmelding. Plattformen tilbyr transparens over kilder og partnere, og hjelper sponsorer, CRO-er og studiesteder med å håndtere rekrutteringspipelinen mer effektivt, samtidig som de reduserer byrden på stedene.

Du har arbeidet i både helse-teknologiske startups og store kliniske forskningsplattformer. Hva var dine personlige erfaringer eller øyeblikk i din karriere som ledet deg til å erkjenne potensialet – og fallgruvene – med AI i pasientrekruttering?

AI har vært den raskeste teknologitrenden jeg har sett i over to tiår med arbeid i klinisk utvikling – raskere enn de tidlige dagene med skytjenester. Det som har vært mest slående for meg er hvordan AI har flyttet seg fra konseptuell til operativ over det som vanligvis er en industri som er sen til å adoptere ny teknologi – og prioriteres nå sogar av regulatoriske myndigheter som FDA. For klinisk studiepasientrekruttering spesifikt, er vi fortsatt i de tidlige fasene med å lære hvor det er best egnet. Leverandører og sponsorer utforsker AI for protokollutvikling, personligheter og målretting, databeriking, lokaliserings- og kommunikasjons- og engasjering – som alle er store friksjonspunkter for forskningsteam.

Med det sagt, er det fortsatt en del risiko som følger med det potensialet. Jeg har talt med ledere i store legemiddelselskaper som understreker at mens AI viser seg i flere punkter i arbeidsflyten, kan det ikke løpe ukontrollert. Menneskelig tilsyn er grunnleggende.

Dette er for kvalitets- og sikkerhetsårsaker, samt fordi selskaper som Trialbee på vår side er koblet til pasienter og familier som søker håp – en svært menneskelig og empatisk erfaring som ikke kan erstattes av AI på en meningfull måte for pasientene vi alle betjener.

Klinisk studiepasientrekruttering har historisk sett hatt problemer med mangfold, hastighet og nøyaktighet. Hvordan ser du på at AI hjelper med å løse disse utfordringene – og hvor mangler det fortsatt?

AI hjelper med å strømlinjeforme noen av de langsommeste og ressursintensivste delene av rekrutteringsprosessen. For eksempel, ting som tidligere tok uker – som oversettelse av studiematerialer på flere titalls språk – er nå komprimert til timer. Det betyr at vi kan starte rekruttering raskere over flere globale markeder.

Når det gjelder nøyaktighet, hjelper AI-drevne agenter med å levere mer konsistente, kriterie-orienterte interaksjoner, fra materialet vi lager til forhåndsskjerming til chatbots. Disse verktøyene er spesielt nyttige for å redusere avbrytningspunkter som sakte ned rekrutteringsprosessen.

Mangfold er fortsatt en utfordring. AI er bare like representativt som dataene det er trenet på, og representasjonen er også formet av faktorer utenfor teknologien – inkludert land-for-land regulatoriske begrensninger som begrenser hvordan AI kan brukes i pasient-orienterte roller. Bygging av tillit til studie-deltagere har vært en utfordring gjennom hele klinisk forskningshistorien, og engasjement med AI-verktøy møtes med varierende grad av skepsis. Med det i mente, støtter vi sterkt en tilnærming som ville gi mennesker mulighet til å interagere med en live medisinsk fagperson eller, for eksempel, en AI-agent. Dette kan hjelpe med å nå deltakere med varierende komfortnivå rundt AI samtidig som det sikrer sterk tilsyn, spesielt for agens AI, selv om sikkerhetsskranke som separate resoneringssystemer må inkorporeres for å gjøre det vellykket.

Du nevnte tidligere at AI-verktøy deployeres raskere enn noen tidligere innovasjon i pasientrekruttering. Men med globale regulatorer som sliter med å holde pace, hva er de mest kritiske tilsynsgapene du ser i multinasjonale kliniske studie-kampanjer?

Det største gapet er mangelen på regulatorisk harmonisering over geografier. I USA er myndigheter som FDA i ferd med å omfavne AI med nye rammer og tidlige gjennomgangsprosesser. I Europa beveger de seg mer forsiktig, fokusert på å gå forsiktig og anvende strengere regulatoriske gjennomgangsprosesser.

For selskaper som vårt som opererer globalt, skaper dette en utfordring: Hva som er akseptabelt i ett land, kan ikke være det i et annet. Og variasjonen er ikke bare i reguleringer, men også i hvordan forskjellige kanaler eller sosiale medieplattformer som Facebook kan brukes til rekruttering, hvordan personlige data håndteres, eller hvordan pasient-samtykke innhentes. Disse er nyanser som krever operasjonell smidighet og en dyp forståelse av regionale etiske og compliance-standards.

Dette er der vår historie av innovasjon og innebygget global kultur er store aktiva når vi navigerer det spennende, men også svært dynamiske AI-landskapet.

Hvordan kan mangelen på global harmonisering i regulatoriske rammer spolere AI-adoptsjon i kliniske studier? Har du vært vitne til noen virkelige konsekvenser av dette?

Absolutt. De digitale annonseringsstrategiene vi avhenger av for pasientrekruttering, er et godt eksempel her. Facebook er en av de mest effektive plattformene globalt, men selv i landene hvor det er tillatt, varierer nivået av målretting du er tillatt å gjøre, og hva slags data du kan bruke, vidt. Vi bygger intern ekspertise for å overvinne disse forskjellene, og vi forventer at AI-regulering vil følge en lignende vei.

I praktiske termer kan begrensningene som denne dilemmaen pålegger rekrutteringsteam, resultere i forsinkede kampanjelanseringer, flere sykluser med etiske komiteer og mer komplekse compliance-arbeidsflyter. Hvis du ikke er dypt klar over hvordan hvert land tolker AI-bruk, spesielt i pasient-orienterte applikasjoner, risikerer du å bremse studier eller løpe inn i alvorlige godkjenningsbarrierer.

Trialbee opererer på skjæringspunktet mellom data, teknologi og pasientengasjement. Hvordan sikrer du at AI-drevne rekrutteringsstrategier ikke reduserer pasienter til data-punkter, men heller forbedrer den menneskelige siden av forskningen?

En utmerket og viktig spørsmål for oss alle. Som jeg nevnte tidligere, ser jeg på AI som dens evne til å beføye mennesker – ikke erstatte dem. Dette er spesielt sant i den svært personlige industrien vi arbeider i, hvor vi prøver å hjelpe generasjoner av pasienter leve sunnere liv over hele verden. Vår forretning er en varm en, om å koble mennesker, og mennesker vil alltid være i hjertet av det.

Når det gjelder dag-til-dag-operasjoner, vil den beste AI vi kan tilby – for eksempel, innen vår Honey Platform – være å analysere data og trender, og trigge steder og studieteam hvor handling kan være nødvendig. Vi gjør mye av dette allerede, og vil fortsette å legge til funksjoner for å sikre at den verdifulle dataen som blir fanget, blir satt til umiddelbar bruk som gjør en forskjell i studiet. Dette kan bety å gi daglige innsikter i rekrutteringsfremskritt eller trigge oppfølging med bestemte pasienter med prediktiv modellering.

Internt bruker vi AI gjennom hele vår organisasjon på en systematisk og samarbeidende måte. Et par gode eksempler her kunne være oversettelse av rekrutteringsmateriell og AI-drevet undertrykkelse av potensiell PII-data – disse vil alltid være overvåket av en erfaren menneskelig. Så du vil håpefullt se hvordan vi bruker AI til å gjøre vårt fantastiske team sterkere, og ikke omvendt.

Hva er de mest kritiske ferdighetssettene for klinisk forskningsteam å ansvarlig guide og styre AI-verktøy i dag?

De mest kritiske ferdighetssettene ligger på skjæringspunktet mellom klinisk ekspertise, AI-litteratur og regulatorisk flytighet. Teamene må forstå hvordan de kan engasjere med AI-plattformer effektivt ved å trigge dem med presisjon og gjennomgang av deres utdata kritisk.

Det er også en voksende behov for regulatorisk innsikt. Som jeg nevnte tidligere, er dette spesielt nødvendig for områder som agens AI, hvor vi bygger separate resoneringssystemer for å tjene som guardrails i pasientinteraksjoner. Teamene må også være i stand til å evaluere AI-oversatt innhold og verifisere dets nøyaktighet og kulturelle relevans før materialet blir sendt til etiske komiteer.

AI-adoptsjon akselererer. Hva råd ville du gi til kliniske studie-aktører som er nølende eller overveldet av kompleksiteten ved å integrere AI i sine arbeidsflyter?

Når du begynner å arbeide med AI, sikre deg at du bruker aktuell intelligens. Maskinlæring kan muliggjøre fantastiske ting – gitt at det har ekspertisen, konteksten og guardrailene til domene-ekspertene bak det.

Mitt råd er å starte smått og forbli grunnede i hva du kan levere i dag. En av de største feilene jeg ser, er selskaper som lener seg for langt inn i uklare løfter om AI-transformasjon uten å artikulere hvordan det faktisk fungerer eller når det vil være klart. Mens disse løftene kan høres bra ut i øyeblikket, kan de undergrave tillit fordi de ikke viser bevis på en sann plan.

Den bedre vei er å bryte adopsjonen ned i små, definerte steg med klare resultater. Velg ett eller to høy-impakt-områder hvor AI kan fjerne friksjon og sikre at disse er bakket opp av riktig tilsyn. Vær spesifik om verktøyene du bruker, hvordan de er satt opp, og viktigst, hvordan du beskytter følsomme opplysninger. Dette er tilnærmingen vi tar i Trialbee. Vi snakker bare med interessenter om funksjoner vi aktivt bygger, vanligvis ikke mer enn tre måneder ute, fordi vi ønsker å sikre at vi kommuniserer hva som er reelt.

I Trialbee ber vi nå en annen avdeling eller team hver uke om å presentere brukstilfeller som har fungert for dem. Vi diskuterer hvordan det fungerer, samt hvorfor, for å dele læring, utfordringer og løsninger, så andre kan replikere deres AI-suksesser for å forbedre effisiens, kunde-leveranse eller rekrutteringsresultater.

Vi understreker også åpenhet om verktøyene vi bruker for å bygge disse funksjonene. Hvis vi bruker OpenAI sin ChatGPT eller Anthropic sin Claude, for eksempel, beskriver vi oppsettet for interessenter, inkludert hvordan vi isolerer følsomme opplysninger og anvender menneskelig tilsyn. Når de ser gevinstene i aksjon, som tidssparing i oversettelsesarbeidsflyter eller økt hastighet i tidlig pasient-screening, er de mer sannsynlig å komme på bordet med det neste AI-brukstilfellet. Og så, er det mindre om å selge den store visjonen og mer om å bevise verdi steg for steg.

FDA og andre regulatorer begynner å stille tøffere spørsmål om AI-modeller brukt i legemiddelutvikling. Hva slags transparens-, validerings- eller revisjonsstandarder tror du bør bli bransjenormer?

Industrien må bevege seg mot fullstendig transparens og sikre at det alltid er menneskelig tilsyn i hver AI-assistert beslutning. For å nevne noen eksempler:

Når vi snakker om agens AI, arbeider vi allerede med måter å innbygge regulatorisk logikk i et separat resoneringssystem som kan evaluere og korrigere samtaler i sanntid. Slike interne kontrollsystemer bør bli standard i hver pasient-orientert applikasjon. Valideringsprotokoller må også formaliseres, inkludert benchmark-testing og pågående ytelsesevalueringer.

Viktigst er at disse standardene må integreres i produktutviklingsprosessen og ikke festes på etterpå. Denne typen strenghet vil være essensiell for å opprettholde pasientsikkerhet, tjene regulatorisk tillit og skale AI ansvarlig over globale kliniske forskningskampanjer.

AI-modeller avhenger ofte av historiske datasett som kan reflektere systemiske helse-uretfardigheter. Hvordan nærmer du deg å sikre rettferdighet og mangfold i pasientrekruttering, spesielt for underrepresenterte befolkningsgrupper?

Ikke å ha AI har ikke vært det som har hindret mangfold i klinisk forskning – ikke å prioritere en plan er. Og AI kan ikke virkelig hjelpe med det. Når det er en virkelig forpliktelse, kan AI være et kraftig verktøy som absolutt hjelper oss nå underrepresenterte grupper mer effektivt, men bare hvis vi er intensjonelle. Derfor i Trialbee, utvider vi datasettene våre modeller bruker, bygger samfunns-partnerskap og overvåker konstant rekrutteringsresultater for å sikre at ingen gruppe blir latt tilbake.

Du nevnte at ditt team ruller ut nye AI-relaterte produkter senere i år. Kan du gi en høy-nivå-forhåndsvisning av problemene du løser – og hvordan disse innovasjonene reflekterer din bredere filosofi rundt ansvarlig AI-bruk?

Trialbee har en kultur av innovasjon og AI er en stor og voksende komponent av det. I år alene har vår Honey Platform rullet ut nye stedsarbeidsflyter, en sponsor-spesifikk pasientregister og brukstilfeller som støtter studie-finner-nettsider for globale biopharma-merker som BMSClinicalTrials.com. Med AI spesifikt, vil du se nye funksjoner og forbedringer rulle ut over de neste 3, 6, 12 månedene og utover. Vi utvikler chatbots, smarte verktøy og mer innen Honey, samtidig som vi vurderer nye måter å strømlinjeforme prosesser for våre kunder. Internt bruker vi det til å bli mer målrettet, mer intensivt, mer inklusivt og mer effektivt i alt vi gjør – med en erfaren teammedlem som driver hver beslutning og tolker kontekst for alle AI-modellene vi bruker.

Ser fem år framover, hvordan ser du for deg Trialbees rolle utvikle seg når AI blir mer dypt integrert i klinisk forskning? Hva del ser du ditt selskap spille i å forme en mer etisk, effektiv og globalt harmonisert fremtid for pasientrekruttering?

Fem år fra nå, ser jeg Trialbee stående som den ledende AI-aktiverte tjenesteleverandøren for pasientrekruttering i klinisk forskning. Vi integrerer allerede generativ AI i hver del av rekrutteringsarbeidsflyten hvor det kan akselerere hastighet, forbedre nøyaktighet eller øke pasient-valgmulighet. Som jeg nevnte tidligere, vurderer vi aktivt verktøy som ville gi pasienter valget mellom å engasjere med en live medisinsk fagperson eller en AI-agent, avhengig av deres preferanse og komfortnivå. Vi tror at å gi mennesker det valget er nøkkel til å øke tillit og deltakelse over tid.

Etisk sett er vi forpliktet til å sikre at AI implementeres med regulatorisk strenghet og transparens. Det betyr å innbygge tilsynsmekanismer i teknologien selv og å være åpen om hvordan våre systemer fungerer. Vi bygger også AI inn i kulturen i vår organisasjon – hver avdeling og hver gruppe – så vi er klare til å tilpasse oss når teknologien utvikler seg. Til slutt ønsker vi å være et selskap som hjelper med å definere hvordan AI brukes ansvarlig over hele klinisk forskning. Hvis vi gjør det riktig, kan vi hjelpe med å forme en fremtid hvor studier er raskere, mer inklusivt og lettere for pasienter å nå, uavhengig av hvor de bor eller hva språk de snakker.

Takk for det flotte intervjuet, lesere som ønsker å lære mer, bør besøke Trialbee.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.