Interviste
Matt Walz, CEO di Trialbee – Serie di Interviste

Matt Walz è il CEO di Trialbee, un leader globale nella tecnologia di reclutamento dei pazienti. Porta più di 20 anni di esperienza nel settore dei software e della leadership nell’industria delle scienze della vita. Matt ha iniziato la sua carriera come sviluppatore e ha ricoperto vari ruoli tecnici e di leadership in Rollins Corporation, PSCI, Microsoft, Morgan Lewis e Datalabs. Nel 2006, Matt ha co-fondato NextDocs, che è cresciuta fino a diventare un leader globale nella gestione dei documenti clinici, di qualità e normativi, dove ha ricoperto il ruolo di CTO, CSO e membro del consiglio di amministrazione per 9 anni. Prima di unirsi a Trialbee, Matt ha trascorso 5 anni come General Manager per le scienze della vita e VP per gli account strategici di Aurea Software, che aveva acquisito NextDocs.
Trialbee è un’azienda di tecnologia sanitaria che semplifica il reclutamento dei pazienti per gli studi clinici. Sfruttando l’analisi dei dati, la promozione digitale e le prove del mondo reale, abbina, coinvolge e pre-qualifica i pazienti per accelerare l’arruolamento. La sua piattaforma offre trasparenza tra le fonti e i partner, aiutando i promotori, i CRO e i siti di prova a gestire il flusso di reclutamento in modo più efficiente, riducendo al contempo l’onere sui siti.
Ha lavorato sia nel settore delle startup di tecnologia sanitaria che nelle piattaforme di ricerca clinica su larga scala. Quali esperienze personali o momenti della sua carriera l’hanno portato a riconoscere il potenziale – e i pericoli – dell’AI nel reclutamento dei pazienti?
L’AI è stata la tendenza tecnologica più veloce che abbia visto in oltre due decenni di lavoro nello sviluppo clinico – più veloce persino dei primi giorni dell’adozione del cloud. Ciò che mi ha colpito di più è come l’AI sia passata da concettuale a operativa in un’industria che è solitamente lenta nell’adottare nuove tecnologie – e viene data priorità persino alle autorità regolatorie come la FDA. Per il reclutamento dei pazienti negli studi clinici in particolare, siamo ancora nella fase iniziale di apprendimento su dove sia meglio adattarsi. I fornitori e i promotori stanno esplorando l’AI per lo sviluppo del protocollo, le persone e il targeting, l’arricchimento dei dati, le localizzazioni e le comunicazioni e l’engagement – che sono tutti punti di attrito significativi per i team di ricerca.
Detto questo, c’è ancora un certo rischio che accompagna quel potenziale. Ho parlato con leader di grandi aziende farmaceutiche che ribadiscono che, mentre l’AI sta emergendo in più punti del flusso di lavoro, non può funzionare senza controllo. La supervisione umana è fondamentale.
Questo è per motivi di qualità e sicurezza, nonché perché, alla nostra base, aziende come Trialbee si connettono con pazienti e famiglie che cercano speranza – un’esperienza molto umana ed empatica che non può essere sostituita dall’AI in modo significativo per i pazienti che serviamo tutti.
Il reclutamento degli studi clinici ha storicamente affrontato problemi di diversità, velocità e accuratezza. Secondo lei, come sta aiutando l’AI a risolvere queste sfide – e dove non è ancora all’altezza?
L’AI sta aiutando a semplificare alcune delle parti più lente e più dispendiose in termini di risorse del processo di reclutamento. Ad esempio, le cose che una volta richiedevano settimane – come la traduzione dei materiali di studio in dozzine di lingue – sono ora compressi in ore. Ciò significa che possiamo iniziare a reclutare più velocemente in più mercati globali.
Quando si tratta di accuratezza, gli agenti alimentati dall’AI stanno iniziando ad aiutarci a fornire interazioni più coerenti, allineate con i criteri, dai materiali che creiamo alla pre-selezione ai chatbot. Questi strumenti sono particolarmente utili per ridurre i punti di abbandono che rallentano il processo di reclutamento.
La diversità rimane una sfida, tuttavia. L’AI è solo rappresentativa dei dati su cui è stata addestrata, e la rappresentanza è anche plasmata da fattori al di fuori della tecnologia – tra cui le restrizioni regolamentari paese per paese che limitano l’uso dell’AI in ruoli di interfaccia con il paziente. Costruire la fiducia con i partecipanti agli studi è stata una sfida in tutta la storia della ricerca clinica, e l’interazione con gli strumenti dell’AI è accolta con gradi variabili di scetticismo. Considerando ciò, sosteniamo fortemente un approccio che offra alle persone la possibilità di interagire con un professionista medico in carne e ossa o, ad esempio, con un agente AI. Ciò può aiutare a raggiungere i partecipanti con livelli di comfort variabili intorno all’AI, garantendo al contempo una forte supervisione, soprattutto per l’AI agente, sebbene le barriere come motori di ragionamento separati debbano essere incorporate per renderlo di successo.
Ha menzionato in precedenza che gli strumenti AI vengono distribuiti più velocemente di qualsiasi altra innovazione nel reclutamento dei pazienti. Ma con i regolatori globali che lottano per stare al passo, quali sono le lacune di controllo più urgenti che vede nelle campagne degli studi clinici multinazionali?
La lacuna più grande è la mancanza di allineamento regolamentare tra le geografie. Negli Stati Uniti, agenzie come la FDA stanno abbracciando l’AI con nuovi quadri e processi di revisione anticipata. In contrasto, l’Europa si muove più cauta, concentrandosi sull’essere prudente e applicando revisioni regolamentari più stringenti.
Per aziende come la nostra che operano a livello globale, ciò crea una sfida: ciò che è accettabile in un paese potrebbe non esserlo in un altro. E la varianza non è solo nelle norme, ma anche nel modo in cui diversi canali o piattaforme di social media come Facebook possono essere utilizzati per il reclutamento, come vengono gestiti i dati personali o come viene raccolto il consenso del paziente. Queste sono sfumature che richiedono agilità operativa e una profonda comprensione degli standard etici e di conformità regionali.
Questo è dove la nostra storia di innovazione e la nostra cultura intrinsecamente globale sono attivi importanti mentre navigiamo il paesaggio dinamico e emozionante dell’AI.
Come può la mancanza di allineamento globale nei quadri regolamentari ostacolare l’adozione dell’AI negli studi clinici? Ha assistito a conseguenze reali di ciò?
Assolutamente. Le strategie di pubblicità digitale di cui ci affidiamo per il reclutamento dei pazienti sono un buon esempio qui. Facebook è una delle piattaforme più efficaci a livello globale, ma anche all’interno dei paesi in cui è consentita, il livello di targeting che si è autorizzati a fare e quali dati si possono utilizzare, varia ampiamente. Stiamo costruendo competenze interne per superare queste differenze e ci aspettiamo che la regolamentazione dell’AI segua un percorso simile.
In termini pratici, le limitazioni che questo dilemma impone ai team di reclutamento possono risultare in ritardi nel lancio delle campagne, cicli aggiuntivi con i comitati etici e flussi di lavoro di conformità più complessi. Se non si è profondamente consapevoli di come ogni paese interpreta l’uso dell’AI, soprattutto in applicazioni di interfaccia con il paziente, si rischia di rallentare gli studi o di incontrare gravi barriere di approvazione.
Trialbee opera all’intersezione dei dati, della tecnologia e dell’engagement dei pazienti. Come assicura che le strategie di reclutamento guidate dall’AI non riducano i pazienti a punti di dati, ma invece migliorino il lato umano della ricerca?
Una domanda eccellente e importante per tutti noi. Come ho menzionato in precedenza, il modo in cui vedo l’AI è la sua capacità di potenziare gli esseri umani – non sostituirli. Ciò è particolarmente vero nell’industria molto personale in cui lavoriamo, dove stiamo cercando di aiutare generazioni di pazienti a vivere vite più sane in tutto il mondo. Il nostro business è un business caldo, che consiste nel connettere le persone, e gli esseri umani saranno sempre al cuore di esso.
Quando si tratta delle operazioni quotidiane, il miglior AI che possiamo fornire – ad esempio, all’interno della nostra piattaforma Honey – sarebbe analizzare i dati e le tendenze e sollecitare i siti e i team di studio dove potrebbe essere necessaria un’azione. Facciamo già molto di questo e continueremo ad aggiungere capacità per assicurarci che i dati preziosi catturati siano messi a uso immediato che faccia la differenza nello studio. Ciò potrebbe significare fornire insight giornalieri sui progressi del reclutamento o sollecitare un follow-up con pazienti specifici con la modellazione predittiva.
Internamente, stiamo utilizzando l’AI in tutta la nostra organizzazione in modo sistematico e collaborativo. Un paio di buoni esempi qui potrebbero essere la traduzione dei materiali di reclutamento e la soppressione dell’AI dei potenziali dati PII – queste saranno sempre supervisionate da un esperto umano. Quindi, si spera di vedere come stiamo utilizzando l’AI per rendere il nostro team incredibile più forte, e non viceversa.
Quali sono le competenze più critiche per i team di ricerca clinica per guidare e governare in modo responsabile gli strumenti AI oggi?
Le competenze più critiche si trovano all’intersezione dell’esperienza clinica, dell’alfabetizzazione AI e della fluente regolamentare. I team devono capire come interagire con le piattaforme AI in modo efficace sollecitandole con precisione e revisionando criticamente i loro output.
C’è anche un crescente bisogno di insight regolamentare. Come ho menzionato prima, ciò è particolarmente necessario per aree come l’AI agente, dove stiamo costruendo motori di ragionamento separati per servire come paratie nel corso delle interazioni con il paziente. I team devono anche essere in grado di valutare il contenuto tradotto dall’AI e verificare la sua accuratezza e rilevanza culturale prima che i materiali vengano presentati ai comitati etici.
L’adozione dell’AI sta accelerando. Quali consigli darebbe ai stakeholder degli studi clinici che sono esitanti o sopraffatti dalla complessità dell’integrazione dell’AI nei loro flussi di lavoro?
Qualcuno ha detto una volta che, quando si inizia a lavorare con l’AI, assicurarsi di utilizzare l’Intelligenza Reale. L’apprendimento automatico può abilitare cose incredibili – a condizione che abbia l’esperienza, il contesto e le paratie dei responsabili del dominio dietro di esso.
Il mio consiglio è di iniziare con piccoli passi e rimanere saldi in ciò che si può consegnare oggi. Uno dei più grandi errori che vedo è che le aziende si spingono troppo oltre nelle promesse vaghe sulla trasformazione AI senza articolare come funziona effettivamente o quando sarà pronta. Mentre quelle promesse possono suonare grandi nel momento, possono erodere la fiducia perché non mostrano prove di un vero piano.
Il percorso migliore è quello di dividere l’adozione in piccoli passi definiti con risultati chiari. Scegliere un paio di aree ad alto impatto in cui l’AI possa rimuovere l’attrito e assicurarsi che siano supportate dalla giusta supervisione. Essere specifici sugli strumenti che si stanno utilizzando, su come sono configurati e, soprattutto, su come si sta proteggendo le informazioni sensibili. Questo è l’approccio che adottiamo in Trialbee. Parliamo solo con gli stakeholder delle capacità che stiamo attivamente costruendo, di solito non più di tre mesi fa, perché vogliamo assicurarci di comunicare ciò che è reale.
In Trialbee, stiamo attualmente chiedendo a un dipartimento o team diverso ogni settimana di presentare casi d’uso che hanno funzionato per loro. Discutiamo il come e il perché per condividere apprendimenti, sfide e soluzioni in modo che gli altri possano replicare i successi AI per migliorare l’efficienza, la consegna del cliente o i risultati del reclutamento.
Sottolineiamo anche la trasparenza sugli strumenti che stiamo utilizzando per costruire quelle capacità. Se stiamo utilizzando OpenAI’s ChatGPT o Anthropic’s Claude, ad esempio, descriviamo l’installazione agli stakeholder, inclusa la modalità di isolamento delle informazioni sensibili e l’applicazione della supervisione umana. Una volta che vedono i guadagni in azione, come il risparmio di tempo nei flussi di lavoro di traduzione o l’aumento della velocità nella pre-selezione precoce, sono più propensi a salire a bordo con il prossimo caso d’uso AI. E quindi, è meno sul vendere la grande visione e più sul dimostrare il valore passo dopo passo.
I regolatori, come la FDA, stanno iniziando a porre domande più difficili sui modelli AI utilizzati nello sviluppo dei farmaci. Quali standard di trasparenza, convalida o controllabilità ritiene che dovrebbero diventare norme di settore?
L’industria deve muoversi verso la piena trasparenza e assicurarsi che ci sia una supervisione umana in ogni decisione assistita dall’AI. Per citare alcuni esempi:
Quando parliamo di AI agente, stiamo già lavorando per incorporare la logica regolamentare in un motore di ragionamento separato che possa valutare e correggere le conversazioni in tempo reale. Quel tipo di sistema di controllo interno dovrebbe diventare standard in qualsiasi applicazione di interfaccia con il paziente. I protocolli di convalida devono anche essere formalizzati, inclusi test di benchmark e valutazioni delle prestazioni continue.
Soprattutto, questi standard devono essere integrati nel processo di sviluppo del prodotto e non applicati successivamente. Quel livello di rigore sarà essenziale per mantenere la sicurezza del paziente, guadagnare la fiducia regolamentare e scalare l’AI in modo responsabile attraverso le campagne di ricerca clinica globali.
I modelli AI spesso si basano su set di dati storici che possono riflettere pregiudizi sistematici nel sistema sanitario. Come si approccia per garantire l’equità e la diversità nel reclutamento dei pazienti, soprattutto per le popolazioni sottorappresentate?
Non avere l’AI non è ciò che ha tenuto indietro la diversità nella ricerca clinica – non aver pianificato è. E l’AI non può realmente aiutare con quello. Una volta che c’è un impegno reale, l’AI può essere uno strumento potente che ci aiuta a raggiungere i gruppi sottorappresentati in modo più efficace, ma solo se siamo intenzionali. È per questo che in Trialbee ampliamo i dati che i nostri modelli utilizzano, costruiamo partenariati con la comunità e monitoriamo costantemente i risultati del reclutamento per assicurarci che nessun gruppo venga lasciato indietro.
Ha menzionato che il suo team sta lanciando nuovi prodotti correlati all’AI più tardi quest’anno. Può offrire un’anteprima a livello alto dei problemi che sta risolvendo – e come queste innovazioni riflettono la sua filosofia più ampia sull’uso responsabile dell’AI?
Trialbee ha una cultura di innovazione e l’AI è un componente importante e in crescita di essa. Quest’anno solo, la nostra piattaforma Honey ha lanciato nuovi flussi di lavoro del sito, un registro dei pazienti specifico del promotore e casi d’uso che supportano i siti web di ricerca per marche biotech globali come BMSClinicalTrials.com. Con l’AI in particolare, vedrete nuove funzionalità e miglioramenti che verranno lanciati nei prossimi 3, 6, 12 mesi e oltre. Stiamo sviluppando chatbot, strumenti intelligenti e altro all’interno di Honey mentre valutiamo anche nuovi modi per semplificare i processi per i nostri clienti. Internamente, stiamo utilizzando l’AI per diventare più mirati, più intenzionali, più inclusivi e più efficienti in tutto ciò che facciamo – con un membro del team esperto che guida ogni decisione e interpreta il contesto per tutti i modelli AI che utilizziamo.
Guardando cinque anni avanti, come vede evolversi il ruolo di Trialbee mentre l’AI diventa più profondamente integrata nella ricerca clinica? Qual è la parte che vede la sua azienda svolgere nella formazione di un futuro più etico, efficiente e armonizzato a livello globale per il reclutamento dei pazienti?
Cinque anni da ora, vedo Trialbee come il principale fornitore di servizi abilitati dall’AI per il reclutamento dei pazienti nella ricerca clinica. Stiamo già integrando l’AI generativa in ogni parte del flusso di lavoro di reclutamento in cui può accelerare la velocità, migliorare l’accuratezza o aumentare l’opzionalità del paziente. Come ho menzionato, stiamo attivamente valutando strumenti che darebbero ai pazienti la scelta di interagire con un professionista medico in carne e ossa o con un agente AI, a seconda della loro preferenza e livello di comfort. Crediamo che offrire alle persone quella scelta sia fondamentale per aumentare la fiducia e la partecipazione nel tempo.
Eticamente, siamo impegnati a garantire che l’AI venga implementata con rigore regolamentare e trasparenza. Ciò significa incorporare meccanismi di controllo nella tecnologia stessa e essere aperti su come funzionano i nostri sistemi. Stiamo anche costruendo l’AI nella cultura della nostra organizzazione – ogni dipartimento e ogni team – in modo che siamo pronti ad adattarci man mano che la tecnologia evolve. In definitiva, vogliamo essere un’azienda che aiuta a definire come l’AI viene utilizzata in modo responsabile in tutta la ricerca clinica. Se facciamo bene, possiamo aiutare a plasmare un futuro in cui gli studi siano più veloci, più inclusivi e più facili per i pazienti da accedere, indipendentemente da dove vivono o quale lingua parlano.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Trialbee.












