Connect with us

Wann AI im Gesundheitswesen vermeiden

Gesundheitswesen

Wann AI im Gesundheitswesen vermeiden

mm

Jedes Mal, wenn eine neue technologische Errungenschaft in eine Branche eintritt, kann es eine Versuchung geben, dieses neue Spielzeug als eine Lösung für alle Probleme der Branche zu betrachten. AI im Gesundheitswesen ist ein gutes Beispiel. Da die Technologie weiter fortgeschritten ist, wurde sie für Einsatzfälle in der Arzneimittelentwicklung, der Versorgungskoordination und der Erstattung eingesetzt, um nur einige zu nennen. Es gibt eine große Anzahl von legitimen Einsatzfällen für AI im Gesundheitswesen, wo die Technologie weit und breit besser ist als jede derzeit verfügbare Alternative.

Jedoch ist AI – wie es heute steht – nur bei bestimmten Aufgaben hervorragend, wie zum Beispiel dem Verständnis großer Datenmengen und der Entscheidungsfindung auf der Grundlage gut definierter Regeln. Andere Situationen, insbesondere solche, bei denen zusätzlicher Kontext für die richtige Entscheidung erforderlich ist, sind nicht gut geeignet für AI. Lassen Sie uns einige Beispiele erkunden.

Leistungsablehnungen und -verweigerungen

Ob es sich um eine Leistung oder eine Versorgung handelt, Ablehnungen sind komplexe Entscheidungen und zu wichtig, um von AI allein gehandhabt zu werden. Bei der Ablehnung einer Leistung oder Versorgung gibt es eine offensichtliche moralische Verpflichtung, dies mit größter Vorsicht zu tun, und aufgrund der Fähigkeiten von AI heute ist menschliche Eingabe erforderlich.

Jenseits des moralischen Aspekts setzen sich Gesundheitspläne selbst einem Risiko aus, wenn sie sich zu sehr auf AI verlassen, um Ablehnungsentscheidungen zu treffen. Pläne können und werden wegen der Verwendung von AI zur Ablehnung von Leistungen verklagt, wobei Rechtsstreitigkeiten vorwerfen, dass Pläne die Mindestanforderungen für eine ärztliche Überprüfung nicht erfüllen, weil AI anstelle dessen verwendet wurde.

Vertrauen auf frühere Entscheidungen

Das Vertrauen auf AI, um Entscheidungen auf der Grundlage alleiniger früherer Entscheidungen zu treffen, hat einen offensichtlichen Fehler: Eine falsche Entscheidung aus der Vergangenheit wird weiterhin andere beeinflussen. Außerdem können AI-Systeme aufgrund der Tatsache, dass die Regeln, die AI informieren, oft über Systeme verteilt sind oder von Menschen unvollkommen kodifiziert werden, ein ungenaues Verständnis dieser Richtlinien entwickeln und weitergeben. Um dies zu vermeiden, müssen Organisationen eine einzige Quelle der Wahrheit für Richtlinien erstellen, damit AI auf eine zuverlässige Datenmenge verweisen und daraus lernen kann.

Aufbau auf Legacy-Systemen

Als relativ neue Technologie bringt AI ein Gefühl der Möglichkeit mit sich, und viele Gesundheitsplan-Datenteams sind begierig, schnell in diese Möglichkeit einzutauchen, indem sie AI-Tools nutzen, die bereits in bestehenden Unternehmensplattformen integriert sind. Das Problem ist, dass Gesundheitsleistungsprozesse extrem komplex sind und Unternehmensplattformen oft die Feinheiten nicht verstehen. Die Anbringung von AI auf diese Legacy-Plattformen als eine Lösung, die alle verschiedenen Faktoren, die die Leistungsabwicklung beeinflussen, nicht berücksichtigt, führt zu Verwirrung und Ungenauigkeit anstelle der Schaffung effizienterer Prozesse.

Verlassen auf alte Daten

Einer der größten Vorteile von AI ist, dass es bei der Ausführung von Aufgaben immer besser wird, während es lernt, aber dieses Lernen kann nur stattfinden, wenn es eine konstante Rückkopplungsschleife gibt, die AI hilft, zu verstehen, was es falsch gemacht hat, damit es entsprechend anpassen kann. Diese Rückkopplung muss nicht nur konstant sein, sondern auch auf sauberen, genauen Daten basieren. Schließlich ist AI nur so gut wie die Daten, aus denen es lernt.

Wenn AI im Gesundheitswesen nützlich ist

Die Verwendung von AI in einem Sektor, in dem die Ausgaben so folgenschwer sind wie im Gesundheitswesen, erfordert sicherlich Vorsicht, aber das bedeutet nicht, dass es keine Einsatzfälle gibt, in denen AI sinnvoll ist.

Zum einen gibt es im Gesundheitswesen keine Knappheit an Daten (denken Sie daran, dass die medizinische Akte einer Person Tausende von Seiten umfassen kann), und die Muster in diesen Daten können uns viel über die Diagnose von Krankheiten, die korrekte Abwicklung von Leistungen und mehr sagen. Hier ist AI hervorragend, indem es Muster erkennt und auf der Grundlage dieser Muster Vorschläge macht, die menschliche Prüfer weiterverfolgen können.

Ein weiterer Bereich, in dem AI hervorragend ist, ist die Katalogisierung und Aufnahme von Richtlinien und Regeln, die bestimmen, wie Leistungen bezahlt werden. Generative AI (GenAI) kann verwendet werden, um diesen Richtlinieninhalt aus verschiedenen Formaten in maschinenlesbaren Code umzuwandeln, der konsistent auf alle Patientenleistungen angewendet werden kann. GenAI kann auch verwendet werden, um Informationen zusammenzufassen und sie in einem für Menschen leicht lesbareren Format anzuzeigen.

Der Schlüssel durch all diese Einsatzfälle ist, dass AI als Co-Pilot für Menschen verwendet wird, die es überwachen, und nicht als alleiniger Leiter. Solange Organisationen diese Idee im Hinterkopf behalten, während sie AI implementieren, werden sie in der Lage sein, in dieser Ära, in der das Gesundheitswesen durch AI transformiert wird, erfolgreich zu sein.

Dr. Tim Wetherill, Chief Clinical Officer at Machinify, wurde als Allgemein-/Unfallchirurg an der University of Kansas ausgebildet. Er arbeitete als Allgemeinchirurg in privater Praxis und im VA, bevor er zu BCBS Montana und HCSC wechselte, wo er große Veränderungen im Bereich der Nutzungsbewirtschaftung, Zahlungsintegrität und Apotheke leitete. Er war auch Vorsitzender des Medizinischen Politikausschusses und der Schöpfer des Vendor Clinical Validation Committee.