Interviews
Matthew Crowson, MD, directeur de la gestion des produits IA/GenAI chez Wolters Kluwer Health – Série d'entretiens

Dr Matt Crowson est un leader des technologies de la santé et un chirurgien praticien spécialisé dans l'application de l'IA à la pratique clinique. Il est directeur des produits IA/IA générative chez Wolters Kluwer Health, où il dirige des initiatives visant à améliorer la synthèse des données probantes et l'analyse des données réelles. Auparavant, il dirigeait le département IA des prestataires de soins de santé de Deloitte, où il développait des solutions d'IA générative pour améliorer la documentation, les cycles de revenus et la recherche. Il est également professeur adjoint à la Harvard Medical School et est l'auteur de plus de 90 publications évaluées par des pairs.
Wolters Kluwer est un fournisseur mondial d'informations, de logiciels et de services professionnels, accompagnant ses clients dans les domaines de la santé, de la fiscalité et de la comptabilité, du droit et de la réglementation, de la conformité financière et des critères ESG. Basée aux Pays-Bas, l'entreprise s'appuie sur une expertise sectorielle approfondie et des technologies de pointe pour proposer des outils qui rationalisent les flux de travail, garantissent la conformité et soutiennent la prise de décision cruciale. Présente dans plus de 180 pays, elle propose des offres réparties entre plusieurs divisions, telles que la santé, la fiscalité et la comptabilité, le droit et la réglementation, la conformité financière et d'entreprise, et la performance d'entreprise et les critères ESG.
Commençons par une question personnelle : comment conciliez-vous votre double rôle de chirurgien et de responsable produit en IA ? Votre expérience clinique a-t-elle façonné votre vision de ce que l'IA devrait ou ne devrait pas être dans le secteur de la santé ?
Franchement ? Ça commence par une gestion rigoureuse du temps et une machine à café industrielle. Les matinées en clinique me permettent de maintenir mes compétences en matière de soins aux patients, tandis que le reste de la journée est consacré à transformer ces douleurs de première ligne en spécifications de produits. Ces deux rôles se nourrissent mutuellement : voir un résident cliquer sur dix écrans pour commander du Tylenol est la seule étude de marché dont j'ai besoin.
Les projets d'intelligence artificielle (IA) s'effondrent lorsque personne dans la salle n'a ressenti cette douleur. Notre enquête « Future Ready Healthcare » révèle que 80 % des dirigeants considèrent l'optimisation des flux de travail comme une priorité absolue. Pourtant, seuls 63 % se disent prêts à le faire avec l'IA générative (GenAI). Il s'agit d'un écart classique entre stratégie et exécution que les experts du domaine peuvent combler en s'interrogeant sur le « pourquoi » clinique avant même d'écrire la moindre ligne de code.
Mon approche clinique permet également de maintenir la mission concrète. Le personnel de première ligne nous a confié que ses principaux impératifs étaient de remédier aux pénuries de personnel (82 %), de réduire les frais administratifs (77 %) et de lutter contre l'épuisement professionnel (76 %). Si un algorithme ne parvient pas à faire bouger les choses, ce n'est que du théâtre. Les cliniciens décrochent rapidement.
Cet objectif me rend également prudent quant à l’endroit où l’IA le feu du rasoir En réalité, 57 % des professionnels craignent qu'une dépendance excessive à l'IA de génération puisse éroder le jugement clinique, mais seulement 18 % déclarent que leur organisation a publié des garde-fous. En attendant que la gouvernance rattrape son retard, le mandat est clair : automatiser la paperasserie, et non la réflexion.
Pour moi, l'équilibre n'est pas vraiment entre café et calendrier. Il s'agit de garder un pied dans la clinique – pour ne jamais oublier à qui l'IA est censée servir – et un pied dans le produit, pour que les connaissances soient transmises. Si vous faites cela bien, la caféine sera un plus appréciable.
Les Rapport d'enquête sur les soins de santé prêts pour l'avenir Les résultats de Wolters Kluwer mettent en évidence un écart important entre l'enthousiasme et la mise en œuvre de GenAI. Avez-vous été surpris par certains résultats ? Qu'est-ce qui vous a le plus marqué personnellement ?
Je n'ai pas été le moins du monde surpris. Je n'ai encore jamais rencontré de clinicien opposé à l'automatisation. Ce qui freine le déploiement n'est pas la crainte d'un scénario de type « Skynet en tenue d'hôpital », mais plutôt le quotidien des opérations de santé. L'enquête cristallise cette réalité. Huit dirigeants sur dix classent l'optimisation des flux de travail comme une priorité absolue, mais à peine six sur dix se disent prêts à laisser GenAI s'en charger. Ce décalage correspond exactement à ce que je constate : des obstacles à la responsabilité, des données qui ressemblent davantage à un tiroir à bric-à -brac qu'à un lac de données, et des incitations financières qui privilégient encore le volume à l'efficacité. D'autres obstacles existent également, notamment le manque de formation, la lassitude face au shadow IT et le flou réglementaire.
Ce qui m'a le plus frappé, c'est la banalité de ces obstacles. Pénuries de personnel, lourdeurs administratives et épuisement professionnel dominent la liste des préoccupations, mais seulement 18 % des organisations disposent de politiques formelles en matière d'IA de la génération. Si vous ne savez pas qui approuve un modèle ni comment ses résultats sont audités, l'enthousiasme du service de conformité s'éteint. De plus, 68 % des personnes interrogées déclarent que les coûts de main-d'œuvre constituent leur principale pression financière, et il n'est pas étonnant que les dirigeants exigent une preuve de retour sur investissement (ROI) avant de signer une nouvelle facture de logiciel. Le titre n'est pas « panique IA », mais plutôt : « Excellente idée ! Montrez-moi le flux de travail et l'analyse de rentabilisation. »
Plus de la moitié des professionnels de santé interrogés craignent que l'IA de génération ne compromette les compétences décisionnelles cliniques. Pensez-vous que cette crainte soit fondée ou reflète-t-elle des inquiétudes plus profondes quant à la confiance et à la transparence dans les systèmes d'IA ?
Une certaine anxiété est réelle, mais elle est moins liée aux craintes d'une IA malveillante de type HAL-9000, digne d'un film de science-fiction, qu'à une simple question de responsabilité. Lorsqu'un outil propose des diagnostics différentiels en quelques secondes, il est essentiel d'avoir une provenance parfaitement claire : D’où vient la recommandation, qui la signe et comment est-elle auditée ? Aujourd'hui, seule une petite minorité d'organisations disposent d'une gouvernance formelle en matière de GenAI, ce qui incite les cliniciens à la prudence. Nos données le montrent : 57 % d'entre eux estiment qu'une dépendance excessive pourrait altérer leur jugement. À mon avis, cela montre qu'ils ne veulent pas d'une boîte noire qui empiète sur leur droit d'exercer.
J'aborde le problème sous un angle historique. Lorsque les tableurs ont fait leur apparition dans les services financiers, certains comptables craignaient une atrophie de leurs capacités d'analyse. Au lieu de cela, les tableurs sont devenus la nouvelle référence, rehaussant les exigences de précision. Le secteur de la santé aurait dû faire un bond en avant similaire. Nous perdons beaucoup trop de patients à cause de la diversité des soins ; l'erreur médicale reste l'une des principales causes de blessures et de décès. Le superpouvoir de GenAI peut réduire ces marges d'erreur en faisant apparaître des recommandations, en soulignant les contre-indications et en signalant les valeurs aberrantes plus rapidement qu'un humain ne peut analyser le tableau. Mais il doit rester un assistant, et non un décideur autonome, surtout dans les trois à cinq prochaines années.
Alors oui, la crainte est fondée, mais elle peut être résolue. Des ensembles de données transparents, des pistes d'audit et des points de contrôle impliquant l'intervention humaine transforment l'« érosion de l'IA » en « augmentation de l'IA ». Donnez aux cliniciens des recommandations traçables et des lignes de responsabilité claires, et ces 57 % disparaîtront. Il ne s'agit pas de remplacer l'expertise, mais de l'enrichir avec de meilleurs outils.
Seuls 18 % des répondants déclarent connaître des politiques GenAI claires au sein de leur organisation. Quels sont les risques potentiels liés au déploiement d'outils GenAI sans une telle gouvernance ?
Imaginez le lancement d'un nouveau médicament sans posologie. Les données de santé sont extrêmement sensibles, et les modèles GenAI ne gagnent en efficacité que lorsqu'ils intègrent ce contexte riche en informations de santé protégées (ISP). Sans politiques strictes de gestion des données pour déterminer qui peut télécharger des informations, comment ces données sont enregistrées et où elles sont stockées, une organisation est à un instant T d'une atteinte à la vie privée susceptible de faire la une des journaux.
La responsabilité est le prochain écueil. Lorsqu'un algorithme détecte une dose contre-indiquée, qui est responsable de la réclamation pour faute professionnelle ? Le fournisseur, l'hôpital ou le clinicien qui a cliqué sur « accepter » ? Pour l'instant, la réponse est floue, car moins d'une organisation sur cinq a codifié les « règles de conduite » pour GenAI. Dans ce contexte, les avocats se tournent souvent vers les plus riches, et cette incertitude à elle seule peut freiner l'innovation.
La gouvernance protège également contre des risques plus subtils comme la dérive des modèles et les biais silencieux. Un robot oncologique formé selon les directives du trimestre précédent pourrait devenir obsolète, éloignant ainsi les soins des sentiers battus. Les politiques imposant le contrôle des versions, le suivi des résultats et les déclencheurs de temporisation empêchent les algorithmes de vieillir et de devenir dangereux pour la sécurité.
Enfin, la confiance est en jeu. Les cliniciens craignent qu'une dépendance excessive à l'IA de génération puisse altérer leur jugement clinique ; le déploiement d'outils opaques ne fait que confirmer ces craintes. Une gouvernance claire, la transparence sur la traçabilité des données, les protocoles de validation et les points de contrôle impliquant l'intervention humaine transforment l'anxiété liée à la « boîte noire » en confiance : l'IA est un partenaire d'assistance, et non un résident isolé.
Sur la base de votre travail avec Wolters Kluwer et au bloc opératoire, quel est le cas d’utilisation à court terme le plus réaliste pour GenAI dans le domaine de la santé ?
Oubliez les robots chirurgiens. Au cours des trois prochaines années, l'opportunité GenAI est immense. annihilation administrativeDeux voies font déjà leurs preuves :
- Prise de notes en salle. Les outils d'écoute ambiante rédigent désormais la note d'évolution pendant qu'un médecin parle à son patient, puis l'intègrent directement au dossier médical électronique (DME). Notre enquête révèle que 41 % des personnes interrogées ont souhaité intégrer cette technologie à leur liste de souhaits GenAI, et qu'elle est déjà déployée dans les systèmes de santé les plus récents. Plusieurs études ont montré que les systèmes de dictée ambiante peuvent réduire la charge cognitive de 51 % et le temps passé en pyjama après les heures de bureau de plus de 60 %. Il s'agit d'un retour sur investissement tangible ; il est rapidement perceptible.
- Protection des revenus du back-office. Le prochain domino concerne les dossiers d'autorisation préalable, les lettres d'appel de refus et autres obstructions du cycle de revenus. À titre d'information, 67 % des dirigeants affirment que l'autorisation préalable à elle seule freine la productivité, et 62 % dénoncent la lourdeur administrative des DSE. Les grands modèles linguistiques qui lisent le dossier et remplissent automatiquement ces formulaires permettent déjà de réduire les jours de traitement des demandes de remboursement et de libérer du personnel pour des tâches à plus forte valeur ajoutée.
Pourquoi ces deux-là ? Ils ont réussi le triplé de faible risque clinique, soulagement important du personnel et justification claire en termes de coûtsDans un marché où 68 % des dirigeants citent les coûts de personnel comme la principale pression financière, les outils qui permettent de récupérer des heures sans modifier le plan de soins sont les plus faciles à utiliser. Le diagnostic autonome viendra plus tard ; désormais, GenAI gagne sa vie en faisant disparaître le presse-papiers.
L'enquête révèle que les données ne constituent pas le principal risque cité par les répondants, ce qui est surprenant compte tenu de la fréquence à laquelle la confidentialité des données fait la une des journaux. Quels risques les cliniciens et les administrateurs considèrent-ils comme les plus urgents ?J'ai également été surpris. Les gros titres voudraient nous faire croire que les violations de la loi HIPAA empêchent les DSI d'hôpitaux de dormir. Pourtant, nos données montrent que uniquement 56 % des professionnels citent la confidentialité comme l'un des principaux risques liés à l'IA générale, tandis qu'une part encore plus importante (57 % !) s'inquiète de la « simplification » du jugement clinique. Cela indique que la principale crainte n'est pas le piratage informatique, mais la responsabilité.
Voici ce qui préoccupe les cliniciens et les administrateurs :
- Roulette de responsabilité. Si l'algorithme dévie les soins, qui signe le chèque de vérification des fautes professionnelles ? L'absence de réglementations et de normes claires se classe aux côtés des lacunes en matière de transparence (55 %), ce qui témoigne d'un réel malaise quant au rayon d'explosion légal.
- Coup de fouet réglementaire. Soixante-seize pour cent des dirigeants se sentent déjà déstabilisés par les changements apportés aux règles de Medicare et de Medicaid ; ajouter à cela une GenAI opaque est difficile à vendre tant que les garde-fous ne seront pas solidifiés.
- Dérive et biais du modèle. Cinquante-cinq pour cent des personnes interrogées considèrent que les biais liés aux modèles sous-entraînés constituent un risque critique, ce qui rappelle que les données obsolètes peuvent être aussi dangereuses que les données manquantes.
En bref, la plupart des organisations supposent que leurs pare-feu sont corrects ; ils ne voulez pas Disposer d'une chaîne de responsabilité claire lorsqu'un modèle de langage volumineux (LLM) aboutit à un plan de soins. Tant que les cadres de gouvernance ne définiront pas clairement la propriété, les pistes d'audit et les cadences de mise à jour, les déploiements de GenAI resteront bloqués, quelle que soit la sécurité.
Pensez-vous que les outils GenAI vont à terme renforcer ou affaiblir l'autonomie des cliniciens ? Comment concevoir des systèmes qui soutiennent la prise de décision sans la dépasser ?
GenAI est sur le point de expand, et non pas réduire, l'autonomie clinique. À l'heure actuelle, une grande partie de cette autonomie est entravée par le tri des boîtes de réception, les formalités administratives liées aux autorisations préalables et les acrobaties liées aux DSE. Il n'est donc pas surprenant que le personnel de première ligne classe « l'optimisation des flux de travail » comme son principal cas d'utilisation pour GenAI (priorité à 80 %), même si à peine 63 % se sentent techniquement prêts à la mettre en œuvre. Les pharmaciens et les professionnels paramédicaux misent déjà sur les avantages : 41 % et 47 % s'attendent à ce que GenAI libère suffisamment de ressources administratives pour réduire les besoins en personnel de soutien. Libérer les cliniciens de la saisie de données signifie plus de temps en face à face avec les patients. C'est l'autonomie que tout le monde souhaite.
Pourtant, l'enquête nous rappelle que l'autonomie est à double tranchant, comme nous l'avons évoqué précédemment : 57 % des répondants craignent qu'une dépendance excessive à GenAI n'altère le jugement clinique. L'antidote réside dans une conception réfléchie, et non dans des restrictions. Les systèmes doivent démontrer leur efficacité grâce à des indicateurs de provenance, des citations et des scores de confiance, afin que les humains restent les arbitres finaux. Le contrôle des versions et la surveillance post-déploiement détectent les dérives silencieuses des modèles avant qu'elles n'enveniment les parcours de soins, tandis que des boutons de « dépassement toujours visibles » indiquent clairement que l'algorithme est un assistant, et non un soignant.
La gouvernance est la dernière étape. Seuls 18 % des professionnels déclarent que leur organisation dispose d'une politique GenAI publiée. Sans une chaîne de responsabilité transparente, même la meilleure expérience utilisateur restera bloquée dans un vide juridique. Des politiques solides doivent préciser la gestion des données, les pistes d'audit et la délimitation des rôles, qui doivent être socialisées entre les médecins, les infirmières et l'assistant médical qui appuie sur le bouton. En associant ces garde-fous à une conception native des flux de travail, GenAI cesse d'être perçue comme une menace pour l'autonomie et se comporte désormais comme le copilote que les cliniciens réclament.
Qu’est-ce qui freine le plus l’adoption : les limitations technologiques, l’incertitude réglementaire, les frictions dans le flux de travail ou quelque chose de plus profond comme la résistance culturelle ?
Il s'agit d'un déficit d'exécution, entaché d'incitations héritées du passé. La plupart des responsables des systèmes de santé sont capables d'articuler une vision GenAI astucieuse, mais leurs capacités opérationnelles ne sont pas à la hauteur. Notre enquête illustre ce décalage : 80 % des répondants classent l'optimisation des flux de travail comme une priorité absolue, mais seulement 63 % se sentent prêts à la mettre en œuvre. Une vision est bon marché ; les ingénieurs d'intégration, les manuels de gestion du changement et les budgets des unités de traitement graphique (GPU) le sont moins.
La gouvernance est le prochain gouffre. Seuls 18 % des professionnels connaissent l'existence d'une politique GenAI publiée dans leur hôpital. Sans règles claires d'utilisation, de validation et de responsabilité des données, tout projet pilote prometteur risque de se transformer en bombe de conformité. Ce flou juridique est amplifié par l'incertitude macroéconomique. En effet, 75 % des dirigeants craignent que l'évolution rapide des réglementations étatiques et fédérales ne bouleverse la solution qu'ils déploient.
Viennent ensuite les frictions internes : près de la moitié des dirigeants citent les données sales et les problèmes d'intégration des DMP comme principaux obstacles, et seulement 42 % déclarent disposer d'un processus pour intégrer les outils GenAI aux flux de travail existants. Si le modèle ne peut pas voir le dossier ou ajoute des clics, les cliniciens l'abandonneront avant le déjeuner.
Enfin, il y a le « purgatoire des pilotes ». De nombreuses études externes évaluent le taux de réussite des pilotes d'IA passant à l'échelle de l'entreprise à environ un sur dix. Les conseils d'administration saluent la démonstration, publient un communiqué de presse et passent à autre chose. Car personne ne finance les travaux de plomberie peu glorieux qui suivent. GenAI restera une promesse de PowerPoint tant que les hôpitaux n'embaucheront pas de responsables de produits ayant déjà livré des logiciels.
En bref, technologie et culture ne sont pas des obstacles distincts. Elles sont indissociables. Si l'on met en place un leadership responsable, de véritables budgets d'intégration, des garde-fous explicites, l'engouement pour GenAI sera à la hauteur de son engouement.
Vous avez développé des systèmes d'IA axés sur des résultats pragmatiques et factuels. Quels conseils donneriez-vous aux responsables du secteur de la santé qui tentent de gérer le battage médiatique et d'identifier les investissements réellement rentables en IA ?
Commencez par un diagnostic, pas une démonstration. Avant de laisser un marteau brillant chercher des clous, quantifiez-le : l’utilisation du bloc opératoire est-elle en baisse de 8 % depuis deux trimestres consécutifs ? Les appels de refus stagnent-ils et sapent-ils les revenus ? L’unité infirmière numéro trois passe-t-elle deux heures par quart à jongler entre les écrans et les tâches du DSE ? Une fois la douleur exprimée, le bon outil a tendance à se présenter de lui-même. Comme Sir William Osler l’a rappelé à la communauté médicale il y a des générations : « Écoutez le patient ; il vous donnera le diagnostic. »
Une fois le problème identifié, examinez l'analyse de rentabilisation comme un directeur financier. Exigez des chiffres précis : indicateurs de référence, deltas projetés et fenêtres de retour sur investissement qui résistent à un test de reniflement en salle de conseil. N'oubliez pas que seul un pilote d'IA sur dix environ atteint l'échelle de l'entreprise ; si le fournisseur ne peut pas montrer à un client réel qui a amélioré l'indicateur clé de performance (KPI) qui vous intéresse, poursuivez votre route.
Ensuite, choisissez entre acheter, développer ou s'associer. Acheter peut accélérer la rentabilisation, mais méfiez-vous des logiciels fantômes à la mode. Développer vous donne le contrôle, mais seulement si vous disposez d'un responsable des profits et pertes expérimenté dans le développement de solutions de machine learning en production. Les partenariats hybrides permettent souvent de trouver le juste équilibre : vos données, leur modèle, partage des bénéfices et des risques.
Enfin, privilégiez les petites équipes transversales, clairement responsabilisées. Imaginez une équipe composée de deux personnes, dont le directeur marketing, le directeur informatique, le responsable de l'ingénierie des données et un responsable de terrain, plutôt que de grands comités de pilotage. Alignez leurs motivations sur des objectifs de résultats pluriannuels plutôt que sur des indicateurs à court terme, et allouez-leur un budget d'infrastructure dédié (GPU, ingénierie des données, opérations de machine learning (MLOps)) afin que le projet dépasse le stade pilote.
Enfin, regardons vers l'avenir : à quoi ressemblerait un système GenAI responsable et pleinement intégré en milieu hospitalier dans cinq ans ? Quelles étapes franchir pour y parvenir ?
Imaginez entrer dans une clinique où le médecin n'a jamais besoin de se tourner vers son clavier. La conversation est fluide, et un agent discret, à l'écoute ambiante, capte le dialogue, rédige une note, prépare les ordonnances basées sur les directives et génère le dossier d'autorisation préalable avant même que le médecin ne pose la main sur la poignée de la porte. Les premiers pilotes prouvent déjà le concept, et 41 % des cliniciens interrogés déclarent que c'est précisément la fonctionnalité GenAI qu'ils souhaitent pour la prochaine fois.
Ce qui rend cette scène possible n'est pas une robotique de science-fiction ; c'est une architecture invisible qui fusionne des données propres et interopérables avec une couche d'orchestration en temps réel et une « gouvernance en tant que code ». Il nous reste encore du travail à faire. Pour combler les lacunes, il faut d'abord penser à la plomberie des données, puis intégrer les garde-fous (plutôt que de les imposer) pour transformer l'engouement en habitude.
Les étapes clés se succèdent naturellement une fois les fondations posées. La première année, je recommande aux hôpitaux et aux systèmes de santé de connecter la structure de données, de publier des directives GenAI à l'échelle de l'entreprise et de mettre en place un pipeline MLOps. La deuxième année de mise en œuvre, il sera important d'étendre la documentation ambiante à l'ensemble des cliniques ambulatoires, de mesurer le temps de documentation et le temps de repos en dehors des heures de bureau. La troisième année, laissez GenAI rédiger les appels de refus et les dossiers d'autorisation préalable (67 % des dirigeants ont déclaré que cette charge était mûre pour être éliminée). Les quatrième et cinquième années, évoluez vers une aide à la décision clinique en temps réel avec provenance et, à terme, une planification des soins basée sur la conversation, où le système exécute les ordres dès qu'ils sont formulés.
Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Wolters Kluwer ou lire le Enquête sur les soins de santé prêts pour l'avenir Rapport.