Gesundheitswesen
Künstliche Intelligenz im Gesundheitswesen könnte Risiken mit sich bringen, zusammen mit Chancen

KI hat ein enormes Potenzial im Bereich des Gesundheitswesens, da sie Diagnosen verbessern und neue, effektivere Medikamente finden kann. Allerdings, wie ein Artikel in Scientific American kürzlich diskutierte, öffnet die Geschwindigkeit, mit der KI in das Gesundheitswesen eindringt, auch viele neue Herausforderungen und Risiken.
Im Laufe der letzten fünf Jahre hat die US-amerikanische Lebensmittel- und Arzneimittelbehörde (FDA) über 40 verschiedene KI-Produkte zugelassen. Allerdings, wie von Scientific American berichtet, wurden none der Produkte, die für den Verkauf in den USA freigegeben wurden, in randomisierten kontrollierten klinischen Studien auf ihre Leistung hin evaluiert. Viele KI-Medizin-Tools benötigen nicht einmal eine Zulassung durch die FDA.
Evan Topol, der Autor von “Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again”, erklärte gegenüber Scientific American, dass viele der KI-Produkte, die behaupten, effektiv bei Aufgaben wie der Diagnose von Krankheiten zu sein, tatsächlich gründlich getestet wurden, wobei die erste große randomisierte Studie eines KI-Erkennungs- und Diagnose-Tools im vergangenen Oktober durchgeführt wurde. Darüber hinaus veröffentlichen nur wenige Tech-Startups ihre Forschungsarbeiten in peer-review-Journals, in denen ihre Arbeit von Wissenschaftlern analysiert wird.
Wenn sie ordnungsgemäß getestet und kontrolliert werden, können KI-Systeme leistungsstarke Werkzeuge sein, die medizinischen Fachleuten helfen, nicht bemerkte Symptome zu erkennen und die Gesundheitsergebnisse zu verbessern.
Als Beispiel wurde ein KI-Tool zur Erkennung von diabetischer Augenkrankheit bei Hunderten von Patienten getestet und schien zuverlässig zu sein. Das Unternehmen, das den Test durchführte, arbeitete über acht Jahre hinweg mit der FDA zusammen, um das Produkt zu verfeinern. Der Test, IDx-DR, macht sich auf den Weg in primäre Pflegestationen, wo er möglicherweise helfen könnte, frühe Anzeichen von diabetischer Retinopathie zu erkennen und Patienten an Augenspezialisten zu überweisen, wenn verdächtige Symptome gefunden werden.
Wenn sie nicht sorgfältig getestet werden, können KI-Systeme, die medizinische Fachleute verwenden, um ihre Diagnose und Behandlung zu leiten, möglicherweise Schaden anstelle von Nutzen verursachen.
Der Artikel in Scientific American beschreibt ein potenzielles Problem bei der Verwendung von KI zur Diagnose von Erkrankungen und verweist auf das Beispiel eines KI-Systems, das darauf ausgelegt ist, Brust-X-Rays zu analysieren und zu erkennen, welche Patienten möglicherweise eine Lungenentzündung entwickeln. Während das System bei Tests im Mount Sinai Hospital in New York genau war, schlug es bei Tests auf Bildern aus anderen Krankenhäusern fehl. Die Forscher fanden heraus, dass das KI-System zwischen Bildern, die mit portablen Röntgen-Systemen und denen, die in einer Radiologie-Abteilung erstellt wurden, unterschied. Ärzte verwenden portable Brust-X-Rays-Systeme bei Patienten, die oft zu krank sind, um ihr Bett zu verlassen, und diese Patienten haben ein höheres Risiko, eine Lungenentzündung zu entwickeln.
Falsche Alarme sind auch ein Anliegen. DeepMind entwickelte eine KI-Mobile-App, die in der Lage ist, akutes Nierenversagen bei hospitalisierten Patienten bis zu 48 Stunden im Voraus vorherzusagen. Allerdings gab das System berichtet auch zwei falsche Alarme für jedes Nierenversagen, das erfolgreich vorhergesagt wurde. Falsch-Positives können schädlich sein, da sie Ärzte dazu veranlassen können, unnötige Zeit und Ressourcen für weitere Tests oder Änderungen der verschriebenen Behandlungen aufzuwenden.
In einem anderen Vorfall kam ein KI-System zu dem falschen Schluss, dass Patienten, die eine Lungenentzündung hatten, wahrscheinlicher überleben würden, wenn sie Asthma hatten, was Ärzte dazu veranlassen könnte, die Behandlung für Patienten mit Asthma zu ändern.
KI-Systeme, die für ein Krankenhaus entwickelt werden, funktionieren oft nicht gut, wenn sie in einem anderen Krankenhaus verwendet werden. Es gibt mehrere Gründe dafür. Einerseits werden KI-Systeme oft auf elektronischen Gesundheitsakten trainiert, aber viele elektronische Gesundheitsakten sind oft unvollständig oder falsch, da ihr Hauptzweck oft die Abrechnung und nicht die Patientenversorgung ist. Zum Beispiel fand eine Untersuchung durchgeführt von KHN heraus, dass es gelegentlich lebensbedrohliche Fehler in den medizinischen Akten der Patienten gab, wie z. B. Medikationslisten, die falsche Medikamente enthielten. Darüber hinaus sind Krankheiten oft komplexer und das Gesundheitssystem komplexer, als von KI-Ingenieuren und Wissenschaftlern oft angenommen.
Wenn KI immer weiter verbreitet wird, wird es wichtig sein, dass KI-Entwickler mit Gesundheitsbehörden zusammenarbeiten, um sicherzustellen, dass ihre KI-Systeme gründlich getestet werden und dass Regulierungsbehörden sicherstellen, dass Standards für die Zuverlässigkeit von KI-Diagnose-Tools festgelegt und eingehalten werden.












