Santé
L’intelligence artificielle dans les soins de santé pourrait apporter des risques ainsi que des opportunités

L’IA a un potentiel énorme lorsqu’il s’agit du domaine des soins de santé, capable d’améliorer les diagnostics et de trouver de nouveaux médicaments plus efficaces. Cependant, comme un article de Scientific American a récemment discuté, la vitesse à laquelle l’IA pénètre le domaine des soins de santé ouvre également de nombreux nouveaux défis et risques.
Au cours des cinq dernières années, la Food and Drug Administration américaine a approuvé plus de 40 produits différents basés sur l’IA. Cependant, comme le rapporte Scientific American, aucun des produits autorisés à la vente aux États-Unis n’a eu ses performances évaluées dans des essais cliniques randomisés contrôlés. De nombreux outils médicaux basés sur l’IA ne nécessitent même pas d’approbation de la FDA.
Evan Topol, l’auteur de « Deep Medicine : Comment l’intelligence artificielle peut rendre les soins de santé plus humains », a déclaré à Scientific American que de nombreux produits basés sur l’IA qui prétendent être efficaces pour des tâches telles que le diagnostic des maladies n’ont en fait pas été rigoureusement testés de cette façon, le premier essai important randomisé d’un outil de détection et de diagnostic basé sur l’IA ayant été réalisé le mois dernier. De plus, très peu de startups technologiques publient leurs articles de recherche dans des revues à comité de lecture, où leur travail sera analysé par des scientifiques.
Lorsqu’ils sont correctement testés et contrôlés, les systèmes basés sur l’IA peuvent être des outils puissants qui aident les professionnels de la santé à détecter des symptômes qui n’auraient pas été remarqués autrement, améliorant ainsi les résultats en matière de santé.
Par exemple, un outil basé sur l’IA pour détecter la maladie oculaire diabétique a été testé sur des centaines de patients et s’est avéré fiable. L’entreprise responsable du test a travaillé avec la FDA pendant plus de huit ans pour affiner le produit. Le test, IDx-DR, est en cours de déploiement dans les cliniques de soins primaires, où il pourrait potentiellement aider à détecter les premiers signes de rétinopathie diabétique, en référant les patients à des spécialistes des yeux si des symptômes suspects sont détectés.
Si les systèmes basés sur l’IA ne sont pas testés avec soin, ils peuvent créer des dommages au lieu de les éviter, même s’ils sont utilisés par des professionnels de la santé pour guider leur diagnostic et leur traitement.
L’article de Scientific American détaille un problème potentiel lié à la confiance accordée à l’IA pour diagnostiquer les maladies, en citant l’exemple d’un système basé sur l’IA conçu pour analyser les radiographies thoraciques et détecter les patients qui pourraient développer une pneumonie. Alors que le système s’est avéré précis lorsqu’il a été testé à l’hôpital Mount Sinai de New York, il a échoué lorsqu’il a été testé sur des images prises dans d’autres hôpitaux. Les chercheurs ont constaté que le système basé sur l’IA distinguait entre les images créées par des systèmes de radiographie portatifs et celles créées dans un service de radiologie. Les médecins utilisent des systèmes de radiographie thoracique portatifs sur des patients qui sont souvent trop malades pour quitter leur lit, et ces patients sont plus à risque de développer une pneumonie.
Les fausses alarmes sont également une préoccupation. DeepMind a créé une application mobile basée sur l’IA capable de prédire l’insuffisance rénale aiguë chez les patients hospitalisés jusqu’à 48 heures à l’avance. Cependant, le système a rapporté également deux fausses alarmes pour chaque insuffisance rénale qui a été prédite avec succès. Les faux positifs peuvent être nocifs car ils peuvent inciter les médecins à consacrer du temps et des ressources inutiles à l’ordre de tests supplémentaires ou à la modification des traitements prescrits.
Dans un autre incident, un système basé sur l’IA a incorrectement conclu que les patients qui avaient une pneumonie étaient plus susceptibles de survivre s’ils avaient de l’asthme, ce qui pourrait amener les médecins à modifier les traitements pour les patients asthmatiques.
Les systèmes basés sur l’IA développés pour un hôpital sous-performent souvent lorsqu’ils sont utilisés dans un autre hôpital. Il y a plusieurs raisons à cela. Tout d’abord, les systèmes basés sur l’IA sont souvent formés sur des dossiers médicaux électroniques, mais de nombreux dossiers médicaux électroniques sont souvent incomplets ou incorrects car leur objectif principal est souvent la facturation et non les soins aux patients. Par exemple, une enquête menée par KHN a constaté que, à l’occasion, il y avait des erreurs potentiellement mortelles dans les dossiers médicaux des patients, comme des listes de médicaments contenant des médicaments incorrects. Au-delà de cela, les maladies sont souvent plus compliquées et le système de santé plus complexe que ce que les ingénieurs et les scientifiques basés sur l’IA peuvent souvent anticiper.
Alors que l’IA devient de plus en plus omniprésente, il sera important pour les développeurs d’IA de travailler aux côtés des autorités de santé pour s’assurer que leurs systèmes basés sur l’IA sont soigneusement testés et que les organismes réglementaires veillent à ce que des normes soient établies et suivies pour la fiabilité des outils de diagnostic basés sur l’IA.












