Connect with us

Das Accountability-Problem der Healthcare-KI

Vordenker

Das Accountability-Problem der Healthcare-KI

mm

In der Gesundheitsversorgung ist KI nun in allem von klinischen Entscheidungen bis hin zu Personalwesen und Finanzen eingebettet. Viele Organisationen verfügen jedoch noch nicht über die notwendige Risikomanagement-Delegation, um sicherzustellen, dass KI-Tools nicht zu Schäden führen. Das Fehlen einer strukturierten Aufsicht bedeutet, dass KI-bezogene Entscheidungen ohne klare Verantwortung getroffen werden, was Organisationen dem Risiko ethischer und regulatorischer Verstöße aussetzt.

Wenn niemand für die Entscheidungen und Handlungen der KI verantwortlich ist, werden Blindspots schnell expandieren. Die Folgen eines KI-Systems, das ohne Aufsicht hochriskante Entscheidungen trifft, sind zahlreich und weitreichend, insbesondere wenn Menschenleben auf dem Spiel stehen.

Heute sehen die Governance-Lücken in der KI ähnlich aus wie frühere Wendepunkte, bei denen die Technologiekurve steiler anstieg als die Fähigkeit des Unternehmens, sie zu managen. Wir haben dies bei der Cloud-Computing erlebt: Teams haben SaaS, IaaS und “Shadow IT” genutzt, um schneller zu sein, während die Governance bei Grundlagen wie Datenklassifizierung, Identitäts- und Zugriffsmanagement, Vendor-Überwachung, Logging/Monitoring und Shared-Responsibility-Klarheit zurückblieb – so dass die Verantwortung über IT, Sicherheit, Beschaffung und das Unternehmen verstreut wurde. Wir haben dies auch bei der schnellen Konsumerisierung von IT und Mobile/BYOD gesehen, bei der Mitarbeiter neue Geräte und Apps in regulierte Umgebungen einführten, lange bevor Organisationen reife Richtlinien für Verschlüsselung, Endgeräte-Kontrollen, App-Prüfung und E-Discovery hatten. In jedem Fall war die Einführung rational und oft wertsteigernd – aber das Fehlen klarer Eigentümerschaft, standardisierter Kontrollen und Lebenszyklus-Überwachung schuf vorhersehbare Fehler. Die Lektion für die KI ist einfach: Governance kann nicht als Nachgedanke nachträglich hinzugefügt werden; sie muss wie andere kritische Infrastrukturen – absichtlich, mit definierten Entscheidungsrechten, kontinuierlicher Überwachung und durchsetzbaren Schutzmechanismen – aufgebaut werden.

Das Problem der diffusen Verantwortung

Die schnelle Bereitstellung von KI hat die Entwicklung von Governance- und Verantwortungsstandards überholt, was zu einer “diffusen Verantwortung” führt, bei der keine einzelne Entität die Verantwortung übernimmt, wenn die KI versagt.

Haftung ist bereits ein allgegenwärtiges Problem im Gesundheitswesen, und KI hat nur neue Herausforderungen hinzugefügt. KI-Tools haben keine anerkannte rechtliche Identität, was bedeutet, dass sie nicht verklagt oder versichert werden können, noch können sie rechtliche Entschädigungen an Opfer zahlen. In rechtlichen Verfahren muss die Schuld auf einen menschlichen Akteur oder ein Unternehmen übertragen werden, nicht auf ein Tool.

Forscher in The Lancet, einer führenden medizinischen Forschungszeitschrift, argumentierten kürzlich, dass “institutionelle Haftungsstrukturen die Verantwortung von Klinikern auf die Organisationen übertragen müssen, die [KI]-Tools entwerfen und bereitstellen.” Es ist klar, dass solche Fragen around Haftung auch in Zukunft bestehen bleiben werden.

Die Europäische Union versucht, diese Probleme auf regionaler Ebene anzugehen. Der Block hat zwei wichtige legislative Instrumente eingeführt: den KI-Gesetz, der die Nutzung von KI nach Risikograd reguliert und die Erhaltung der menschlichen Aufsicht betont; und die KI-Haftungsrichtlinie, die neue Regeln einführt, die es Menschen erleichtern, Entschädigungen für durch KI verursachte Schäden zu fordern.

Aber Regulierung allein wird das Problem nicht lösen. Krankenhäuser operieren in einem komplexen Netzwerk von Lieferanten, Klinikern, Administratoren und IT-Teams, so dass, wenn ein KI-System ein schädliches oder voreingenommenes Ergebnis produziert, die Verantwortung zwischen den Beteiligten weitergegeben wird: Der Lieferant kann auf eine unsachgemäße Verwendung hinweisen, Kliniker können sagen, dass die Konstruktion fehlerhaft ist, und die Führung kann regulatorische Unklarheit anführen.

All dies bedeutet, dass die Verantwortung diffus ist und Krankenhäuser anfällig für große rechtliche Auseinandersetzungen sind.

Praktische Schritte zur Schließung von Governance-Lücken

Die gute Nachricht ist, dass Krankenhausorganisationen auch ohne umfassende Regulierungen proaktiv Governance-Lücken schließen können. Um zu beginnen, können Führungskräfte mit dem Bericht der Weltgesundheitsorganisation ” Ethik und Governance von künstlicher Intelligenz für die Gesundheit” beginnen, der darauf abzielt, das Versprechen der KI zu maximieren und das Risiko zu minimieren.

Die in diesem Bericht beschriebenen Schritte zielen darauf ab, Autonomie zu schützen, menschliches Wohlbefinden und öffentliche Sicherheit zu fördern, Transparenz und Erklärbarkeit sicherzustellen und Verantwortung und Rechenschaftspflicht zu fördern. Um Governance-Lücken zu schließen, konzentrieren wir uns auf die letzten beiden Punkte.

Implementieren Sie einen einheitlichen Ansatz für die KI-Governance, der von oben durch Boards oder Experten gesteuert wird. Derzeit lassen viele Organisationen einzelne Abteilungen KI verwenden, wo sie es für angebracht halten, was es Führungskräften unmöglich macht, zu erklären, wie und wo die Organisation diese Tools verwendet. Sichtbarkeit ist von entscheidender Bedeutung, stellen Sie daher sicher, dass Sie eine Liste aller Tools haben, die verwendet werden, sowie deren Zweck.

Es ist ebenso wichtig, klare Verantwortungslinien über den gesamten KI-Lebenszyklus zu etablieren. Dies bedeutet, dass eine Person oder Abteilung für alles von der Beschaffung und Validierung bis zur Bereitstellung, Überwachung und Reaktion auf Vorfälle verantwortlich ist. Krankenhäuser müssen von Lieferanten verlangen, definierte Transparenz- und Prüfbarkeitsstandards zu erfüllen, und sicherstellen, dass interne Teams ausgebildet sind, um sowohl die Fähigkeiten als auch die Grenzen von KI-Systemen zu verstehen.

Schließlich muss die Governance operationalisiert werden, nicht nur dokumentiert. Integrieren Sie Richtlinien in Workflows, indem Sie KI-Risikobewertungen in Beschaffungsprozesse integrieren, regelmäßige Audits der KI-Leistung durchführen und Mechanismen für das Personal schaffen, um Bedenken ohne Reibung zu melden.

In der Praxis ist die Schließung der Governance-Lücke weniger darum, neue Grundsätze einzuführen, sondern eher darum, Disziplin durchzusetzen: Standardisieren Sie, wie KI in die Organisation eintritt, definieren Sie, wer sie in jedem Stadium besitzt, und stellen Sie sicher, dass ihre Leistung kontinuierlich überwacht wird. Ohne diese Disziplin werden KI-Tools weiterhin die Strukturen überholen, die sie sicher halten sollen.

Das verborgene Risiko: Datenqualität

Auch wenn Verantwortungsstrukturen vorhanden sind, wird ein weiteres Risiko oft unterschätzt: die Integrität der Daten, die KI-Systeme speisen, und wie diese Systeme im Laufe der Zeit evolvieren. Jedes KI-System ist nur so zuverlässig wie die Daten, auf denen es trainiert wird und kontinuierlich lernt, und Krankenhaus-Datenumgebungen sind berüchtigt für ihre Fragmentierung, Inkonsistenz und Lücken.

Elektronische Gesundheitsakten, Bildgebungssysteme und administrative Plattformen operieren oft in Silos, was zu Diskrepanzen führen kann, die direkt die KI-Ausgaben beeinflussen können. Ein Modell, das auf unvollständigen oder voreingenommenen Datensätzen trainiert wird, kann fehlerhafte Empfehlungen produzieren, die möglicherweise unbemerkt bleiben, bis der Schaden bereits angerichtet ist. Dies ist besonders gefährlich in klinischen Umgebungen, in denen kleine Abweichungen in der Genauigkeit zu erheblichen Konsequenzen für Patienten führen können.

Ein weiteres Problem ist der “Modell-Drift”: die Tendenz von KI-Modellen, von den Anweisungen und dem Kontext abzuweichen, wenn mehr Daten in das System eingegeben werden. Wenn Patientenpopulationen evolvieren, neue Behandlungsprotokolle eingeführt werden und externe Faktoren die Betriebsabläufe beeinflussen, können die Grundannahmen der KI-Tools verschoben werden. Ohne kontinuierliche Überwachung und Neukalibrierung kann ein KI-System, das einst zuverlässig funktionierte, beginnen, Handlungen vorzunehmen oder Lösungen vorzuschlagen, die von seiner Ausbildung abweichen.

Um den Modell-Drift zu bekämpfen, müssen Krankenhäuser KI-Systeme als dynamische, hochriskante Vermögenswerte und nicht als statische Tools behandeln. Dies bedeutet, dass kontinuierliche Leistungsüberwachung implementiert, klare Schwellenwerte für akzeptable Genauigkeit festgelegt und die Eigentümerschaft für erneutes Training und Validierung definiert werden müssen. Die Daten-Governance muss auch gestärkt werden, mit standardisierten Praktiken für Datenqualität, Interoperabilität und Vorurteils-Erkennung.

Ohne die Risiken im Zusammenhang mit Datenqualität und Modell-Drift anzugehen, werden sogar die besten KI-Governance-Rahmenwerke versagen. Für KI-Systeme im Gesundheitswesen, die nur so gut sind wie die Daten, auf denen sie basieren, schafft die Missachtung dieser Risikoebene das Potenzial für ein systemisches Versagen früher oder später.

Richtig machen, bevor Sie loslegen

KI hat das Potenzial, die Gesundheitsversorgung durch Verbesserung der Effizienz, Genauigkeit und Patientenergebnisse zu transformieren. Aber ohne klare Verantwortung für die Risiken, die sie aufdeckt, kann dieses Potenzial schnell zu einer Belastung werden.

Krankenhäuser können es sich nicht leisten, die KI-Governance als reine Compliance-Übung zu behandeln. Sie muss als Kernbetriebspriorität behandelt werden: definieren Sie die Eigentümerschaft, strukturieren Sie die Aufsicht und bewerten Sie kontinuierlich. Denn in der Gesundheitsversorgung kann es, wenn etwas schiefgeht, zu Konsequenzen führen, die weit schlimmer sind als die Frage, wer schuld ist.

Errol Weiss trat Health-ISAC 2019 als ersten Chief Security Officer bei und gründete ein Bedrohungsoperationszentrum mit Hauptsitz in Orlando, Florida, um IT- und Infosec-Experten im Gesundheitssektor bedeutungsvolle und handhabbare Bedrohungsintelligence zu bieten.

Errol verfügt über mehr als 25 Jahre Erfahrung in der Informationsicherheit und begann seine Karriere bei der National Security Agency (NSA) mit der Durchführung von Penetrationstests in klassifizierten Netzwerken. Er gründete und leitete das Global Cyber Intelligence Center von Citigroup und war Senior Vice President Executive im Global Information Security-Team von Bank of America.