Entretiens
Matt Walz, PDG de Trialbee – Série d’entretiens

Matt Walz est le PDG de Trialbee, un leader mondial de la technologie de recrutement de patients. Il apporte plus de 20 ans d’expérience dans le domaine des logiciels et du leadership dans l’industrie des sciences de la vie. Matt a commencé sa carrière en tant que développeur et a occupé divers postes techniques et de leadership chez Rollins Corporation, PSCI, Microsoft, Morgan Lewis et Datalabs. En 2006, Matt a co-fondé NextDocs, qui est devenu un leader mondial de la gestion de documents cliniques, de la qualité et de la réglementation, où il a occupé les postes de CTO, CSO et administrateur du conseil d’administration pendant 9 ans. Avant de rejoindre Trialbee, Matt a passé 5 ans en tant que directeur général des sciences de la vie et vice-président des comptes stratégiques pour Aurea Software, qui avait acquis NextDocs.
Trialbee est une entreprise de technologie de santé qui rationalise le recrutement de patients pour les essais cliniques. En utilisant l’analyse de données, la sensibilisation numérique et les preuves du monde réel, elle met en correspondance, engage et préqualifie les patients pour accélérer l’inscription. Sa plateforme offre une transparence totale sur les sources et les partenaires, aidant ainsi les sponsors, les CRO et les sites d’essais à gérer le pipeline de recrutement de manière plus efficace tout en réduisant la charge sur les sites.
Vous avez travaillé à la fois dans des startups de technologie de santé et des plates-formes de recherche clinique à grande échelle. Quelles expériences personnelles ou moments de votre carrière vous ont amené à reconnaître le potentiel – et les pièges – de l’IA dans le recrutement de patients ?
L’IA a été la tendance technologique la plus rapide que j’aie vue en plus de deux décennies de travail dans le développement clinique – plus rapide même que les premiers jours de l’adoption du cloud. Ce qui m’a le plus frappé, c’est la façon dont l’IA est passée du conceptuel à l’opérationnel dans ce qui est typiquement une industrie qui est lente à adopter de nouvelles technologies – et qui est prioritaire même auprès des autorités réglementaires telles que la FDA. Pour le recrutement de patients pour les essais cliniques, nous sommes encore dans les premières phases de l’apprentissage de où il est le mieux adapté. Les fournisseurs et les sponsors explorent tous l’IA pour le développement de protocoles, les personas et la ciblage, l’enrichissement des données, les localisations et les communications et l’engagement – qui sont tous des points de friction majeurs pour les équipes de recherche.
Cela étant dit, il y a encore un risque qui accompagne ce potentiel. J’ai parlé à des dirigeants de grandes entreprises pharmaceutiques qui renforcent que même si l’IA apparaît dans davantage de points du flux de travail, elle ne peut pas fonctionner sans contrôle. La surveillance humaine est fondamentale.
Ceci est pour des raisons de qualité et de sécurité, ainsi que parce que, à notre core, des entreprises comme Trialbee se connectent avec des patients et des familles qui cherchent de l’espoir – une expérience très humaine et empathique qui ne peut pas être remplacée par l’IA d’une manière significative pour les patients que nous servons tous.
Le recrutement pour les essais cliniques a historiquement été confronté à des problèmes de diversité, de rapidité et de précision. À votre avis, comment l’IA aide-t-elle à résoudre ces défis – et où échoue-t-elle encore ?
L’IA aide à rationaliser certaines des parties les plus lentes et les plus gourmandes en ressources du processus de recrutement. Par exemple, des choses qui prenaient des semaines – comme la traduction de matériel d’étude dans des dizaines de langues – sont maintenant compressées en quelques heures. Cela signifie que nous pouvons commencer à recruter plus rapidement sur plus de marchés mondiaux.
Lorsqu’il s’agit de précision, les agents alimentés par l’IA commencent à nous aider à fournir des interactions plus cohérentes et alignées sur les critères, des matériaux que nous créons à la pré-sélection en passant par les chatbots. Ces outils sont particulièrement utiles pour réduire les points de chute qui ralentissent le processus de recrutement.
La diversité reste un défi, cependant. L’IA n’est représentative que des données sur lesquelles elle est formée, et la représentation est également façonnée par des facteurs en dehors de la technologie – y compris les restrictions réglementaires pays par pays qui limitent la façon dont l’IA peut être utilisée dans les rôles axés sur les patients. Établir la confiance avec les participants aux essais a été un défi tout au long de l’histoire de la recherche clinique, et l’engagement avec les outils d’IA est accueilli avec différents degrés de scepticisme. Compte tenu de cela, nous soutenons fortement une approche qui donnerait aux gens l’option d’interagir avec un professionnel médical en direct ou, par exemple, un agent d’IA. Cela peut aider à atteindre les participants ayant des niveaux de confort variables autour de l’IA tout en assurant une surveillance solide, en particulier pour l’IA agente, bien que des garde-fous tels que des moteurs de raisonnement distincts doivent être intégrés pour en faire un succès.
Vous avez mentionné précédemment que les outils d’IA sont déployés plus rapidement que toute innovation précédente dans le recrutement de patients. Mais avec les régulateurs mondiaux qui luttent pour suivre le rythme, quels sont les écarts de surveillance les plus urgents que vous voyez dans les campagnes d’essais cliniques multinationaux ?
Le plus grand écart est le manque d’alignement réglementaire à travers les géographies. Aux États-Unis, des agences comme la FDA adoptent l’IA avec de nouveaux cadres et des processus d’examen précoce. En revanche, l’Europe bouge plus prudemment, se concentrant sur une approche prudente et appliquant des examens réglementaires plus stricts.
Pour des entreprises comme la nôtre qui opèrent à l’échelle mondiale, cela crée un défi : ce qui est acceptable dans un pays peut ne pas l’être dans un autre. Et la variance n’est pas seulement dans les réglementations, mais également dans la façon dont différents canaux ou plateformes de médias sociaux comme Facebook peuvent être utilisés pour le recrutement, la façon dont les données personnelles sont traitées ou la façon dont le consentement des patients est collecté. Ce sont des nuances qui nécessitent une agilité opérationnelle et une compréhension approfondie des normes éthiques et de conformité régionales.
C’est là que notre histoire d’innovation et notre culture mondiale inhérente sont des atouts majeurs alors que nous naviguons dans le paysage d’IA excitant mais très dynamique.
Comment ce manque d’alignement mondial dans les cadres réglementaires peut-il dérailler l’adoption de l’IA dans les essais cliniques ? Avez-vous été témoin de conséquences réelles de ceci ?
Absolument. Les stratégies de publicité numérique sur lesquelles nous comptons pour le recrutement de patients sont un bon exemple. Facebook est l’une des plateformes les plus efficaces au niveau mondial, mais même dans les pays où il est autorisé, le niveau de ciblage que vous êtes autorisé à faire et les données que vous pouvez utiliser varient considérablement. Nous développons une expertise interne pour surmonter ces différences, et nous attendons que la réglementation de l’IA suive un chemin similaire.
Dans des termes pratiques, les limitations que cette dilemmme impose aux équipes de recrutement peuvent entraîner des lancements de campagnes retardés, des cycles supplémentaires avec des comités d’éthique et des flux de conformité plus complexes. Si vous n’êtes pas profondément conscient de la façon dont chaque pays interprète l’utilisation de l’IA, en particulier dans les applications axées sur les patients, vous risquez de ralentir les essais ou de rencontrer des barrières d’approbation sérieuses.
Trialbee opère à l’intersection des données, de la technologie et de l’engagement des patients. Comment vous assurez-vous que les stratégies de recrutement alimentées par l’IA ne réduisent pas les patients à des points de données, mais améliorent plutôt l’aspect humain de la recherche ?
Une excellente et importante question pour nous tous. Comme je l’ai mentionné plus tôt, la façon dont je vois l’IA est sa capacité à autonomiser les humains – et non à les remplacer. C’est particulièrement vrai dans l’industrie très personnelle dans laquelle nous travaillons, où nous essayons d’aider les générations de patients à vivre des vies plus saines dans le monde. Notre entreprise est une entreprise chaleureuse, qui consiste à connecter les gens, et les êtres humains seront toujours au cœur de celle-ci.
Lorsqu’il s’agit des opérations quotidiennes, le meilleur IA que nous pouvons fournir – par exemple, dans notre plateforme Honey – serait d’analyser les données et les tendances, et de promouvoir les sites et les équipes d’étude où une action peut être nécessaire. Nous faisons déjà beaucoup de cela, et nous continuerons à ajouter des capacités pour nous assurer que les données précieuses qui sont capturées sont mises à usage immédiat qui font une différence dans l’essai. Cela pourrait signifier fournir des insights quotidiens sur la progression du recrutement ou promouvoir un suivi avec des patients spécifiques à l’aide de la modélisation prédictive.
À l’interne, nous utilisons l’IA dans tout notre organisme d’une manière systématique et collaborative. De bons exemples ici pourraient être la traduction de matériel de recrutement et la suppression alimentée par l’IA des données PII potentielles – celles-ci seront toujours supervisées par un humain expérimenté. Vous verrez donc comment nous utilisons l’IA pour rendre notre équipe incroyable plus forte, et pas l’inverse.
Quels sont les ensembles de compétences les plus critiques pour les équipes de recherche clinique afin de guider et de gouverner les outils d’IA de manière responsable aujourd’hui ?
Les ensembles de compétences les plus critiques se situent à l’intersection de l’expertise clinique, de l’alphabétisation de l’IA et de la fluence réglementaire. Les équipes doivent comprendre comment engager avec les plateformes d’IA de manière efficace en les sollicitant avec précision et en examinant leurs sorties de manière critique.
Il y a également un besoin croissant de perspicacité réglementaire. Comme je l’ai mentionné plus tôt, c’est particulièrement nécessaire pour des domaines tels que l’IA agente, où nous construisons des moteurs de raisonnement distincts pour servir de garde-fous dans les interactions avec les patients. Les équipes doivent également être capables d’évaluer le contenu traduit par l’IA et de vérifier son exactitude et sa pertinence culturelle avant que les matériaux soient soumis aux comités d’éthique.
L’adoption de l’IA s’accélère. Quels conseils donneriez-vous aux parties prenantes des essais cliniques qui hésitent ou sont submergées par la complexité de l’intégration de l’IA dans leurs flux de travail ?
Quelqu’un a dit un jour, lorsque vous commencez à travailler avec l’IA, assurez-vous d’utiliser l’intelligence réelle. L’apprentissage automatique peut permettre des choses incroyables – à condition qu’il ait l’expertise, le contexte et les garde-fous des experts du domaine derrière lui.
Mon conseil est de commencer petit et de rester ancré dans ce que vous pouvez livrer aujourd’hui. L’une des plus grandes erreurs que je vois est que les entreprises s’appuient trop sur des promesses vagues concernant la transformation de l’IA sans articuler comment cela fonctionne réellement ou quand cela sera prêt. Même si ces promesses peuvent sembler grandes dans l’instant, elles peuvent éroder la confiance parce qu’elles ne montrent pas de preuve d’un plan réel.
La meilleure voie est de diviser l’adoption en petites étapes définies avec des résultats clairs. Choisissez une ou deux zones à forte incidence où l’IA peut supprimer la friction et assurez-vous que celles-ci soient étayées par la bonne surveillance. Soyez spécifique sur les outils que vous utilisez, comment ils sont configurés et, surtout, comment vous protégez les informations sensibles. C’est l’approche que nous adoptons chez Trialbee. Nous ne discutons avec les parties prenantes que des capacités que nous construisons activement, généralement pas plus de trois mois à l’avance, parce que nous voulons nous assurer que nous communiquons ce qui est réel.
Chez Trialbee, nous demandons actuellement à un département ou une équipe différente chaque semaine de présenter des cas d’utilisation qui ont fonctionné pour eux. Nous discutons du comment ainsi que du pourquoi pour partager les apprentissages, les défis et les solutions afin que les autres puissent reproduire leurs succès d’IA pour améliorer l’efficacité, la livraison client ou les résultats de recrutement.
Nous mettons également l’accent sur la transparence concernant les outils que nous utilisons pour construire ces capacités. Si nous utilisons OpenAI’s ChatGPT ou Anthropic’s Claude, par exemple, nous décrivons la configuration aux parties prenantes, y compris la façon dont nous isolons les informations sensibles et appliquons une surveillance humaine. Une fois qu’ils voient les gains en action, comme les économies de temps dans les flux de travail de traduction ou l’augmentation de la vitesse dans le dépistage précoce des patients, ils sont plus susceptibles de se joindre au prochain cas d’utilisation de l’IA. Et ainsi, il s’agit moins de vendre la grande vision et plus de prouver la valeur étape par étape.
La FDA et d’autres régulateurs commencent à poser des questions plus difficiles sur les modèles d’IA utilisés dans le développement de médicaments. Quels types de normes de transparence, de validation ou d’auditabilité croyez-vous devenir des normes de l’industrie ?
L’industrie doit se diriger vers une transparence totale et doit assurer qu’il y a une surveillance humaine dans chaque décision assistée par l’IA. Pour citer quelques exemples :
Lorsque nous parlons d’IA agente, nous travaillons déjà sur des moyens d’intégrer la logique réglementaire dans un moteur de raisonnement distinct qui peut évaluer et corriger les conversations en temps réel. Ce type de système de contrôle interne devrait devenir standard dans toute application axée sur les patients. Les protocoles de validation doivent également être formalisés, y compris les tests de référence et les évaluations de performance continues.
Le plus important est que ces normes doivent être intégrées dans le processus de développement de produits et non ajoutées par la suite. Ce niveau de rigueur sera essentiel pour maintenir la sécurité des patients, gagner la confiance réglementaire et mettre à l’échelle l’IA de manière responsable à travers les campagnes de recherche clinique mondiales.
Les modèles d’IA s’appuient souvent sur des ensembles de données historiques qui peuvent refléter des préjugés systémiques dans les soins de santé. Comment abordez-vous l’assurance de l’équité et de la diversité dans le recrutement de patients, en particulier pour les populations sous-représentées ?
Ne pas avoir d’IA n’a pas été ce qui a freiné la diversité dans la recherche clinique – ne pas donner la priorité à un plan est. Et l’IA ne peut vraiment pas aider avec cela. Une fois qu’il y a un engagement réel, l’IA peut être un outil puissant qui nous aide certainement à atteindre les groupes sous-représentés de manière plus efficace, mais seulement si nous sommes intentionnels. C’est pourquoi chez Trialbee, nous élargissons les données que nos modèles utilisent, construisons des partenariats communautaires et surveillons constamment les résultats du recrutement pour nous assurer qu’aucun groupe n’est laissé pour compte.
Vous avez mentionné que votre équipe lance de nouveaux produits liés à l’IA plus tard cette année. Pouvez-vous offrir un aperçu de haut niveau des problèmes que vous résolvez – et comment ces innovations reflètent votre philosophie plus large autour de l’utilisation responsable de l’IA ?
Trialbee a une culture d’innovation et l’IA est un composant majeur et croissant de celle-ci. Cette année seule, notre plateforme Honey a lancé de nouveaux flux de travail de site, un registre de patients spécifique aux sponsors et des cas d’utilisation pour soutenir les sites de recherche pour les marques biopharmaceutiques mondiales telles que BMSClinicalTrials.com. Avec l’IA spécifiquement, vous verrez de nouvelles fonctionnalités et améliorations déployées au cours des 3, 6, 12 prochains mois et au-delà. Nous développons des chatbots, des outils intelligents et plus encore à l’intérieur de Honey tout en évaluant de nouvelles façons de rationaliser les processus pour nos clients. À l’interne, nous utilisons l’IA pour devenir plus ciblés, plus intentionnels, plus inclusifs et plus efficaces dans tout ce que nous faisons – avec un membre d’équipe expérimenté qui pilote chaque décision et interprète le contexte pour tous les modèles d’IA que nous utilisons.
En regardant cinq ans à l’avance, comment voyez-vous l’évolution du rôle de Trialbee alors que l’IA devient plus profondément ancrée dans la recherche clinique ? Quel rôle voyez-vous votre entreprise jouer dans la formation d’un avenir plus éthique, plus efficace et plus harmonisé au niveau mondial pour le recrutement de patients ?
Dans cinq ans, je vois Trialbee comme le principal fournisseur de services d’IA pour le recrutement de patients dans la recherche clinique. Nous intégrons déjà l’IA générative dans chaque partie du flux de travail de recrutement où elle peut accélérer la vitesse, améliorer la précision ou augmenter les options pour les patients. Comme je l’ai mentionné, nous évaluons activement des outils qui donneraient aux patients le choix d’interagir avec un professionnel médical en direct ou avec un agent d’IA, en fonction de leur préférence et de leur niveau de confort. Nous croyons que donner aux gens ce choix est clé pour augmenter la confiance et la participation avec le temps.
Éthiquement, nous sommes engagés à nous assurer que l’IA est mise en œuvre avec une rigueur réglementaire et une transparence. Cela signifie intégrer des mécanismes de surveillance dans la technologie elle-même et être ouvert sur la façon dont nos systèmes fonctionnent. Nous construisons également l’IA dans la culture de notre organisation – chaque département et chaque équipe – afin que nous soyons prêts à nous adapter à mesure que la technologie évolue. En fin de compte, nous voulons être une entreprise qui aide à définir comment l’IA est utilisée de manière responsable dans toute la recherche clinique. Si nous faisons cela correctement, nous pouvons aider à façonner un avenir où les essais sont plus rapides, plus inclusifs et plus faciles d’accès pour les patients, quelle que soit leur localisation ou leur langue.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus peuvent visiter Trialbee.












