Connect with us

Wenn die “Einsicht” von KI 50 Jahre alt ist: Das Compliance-Risiko, das Sie nicht ignorieren können

Vordenker

Wenn die “Einsicht” von KI 50 Jahre alt ist: Das Compliance-Risiko, das Sie nicht ignorieren können

mm

Das Problem der falschen KI-Erkenntnisse ist eine dringende Herausforderung, da Unternehmen ihre Nutzung generativer Tools erhöhen. Trotz der weit verbreiteten Begeisterung über die Adoption von KI gibt es auch eine starke Strömung der Kritik. Kritische Kommentatoren weisen oft auf offensichtlich zufällige, unvorhersehbare Ungenauigkeiten in der Ausgabe von KI hin, die ihren Wert untergraben – und sogar zu realer Schädigung von Menschen führen können, insbesondere in Branchen wie Gesundheitswesen und Verkehr, wo falsche Ausgaben theoretisch zu allem führen könnten, von der falschen Verschreibung bis hin zu Zügen, die auf Kollisionskurs sind.

Oftmals werden diese Ungenauigkeiten auf KI-“Halluzinationen” zurückgeführt – Instanzen, in denen die KI eine “beste Schätzung”-Antwort generiert, die mit dem gleichen Vertrauen wie eine “echte” Antwort übermittelt wird, anstatt den Benutzer über eine Lücke in ihrem Wissen oder ihrer Fähigkeit zu informieren. Halluzinationen können anfangs schwer zu erkennen sein – aber es gibt ein ruhigeres, gleichwertig ernstes Problem, das noch schwerer zu erkennen ist.

Datenqualitäts-Schuld: Der Achillesferse von KI

Wenn KI-Systeme auf veraltete, unvollständige oder ungenaue Daten zurückgreifen, treten falsche Ausgaben auf, die jedoch weniger sofort erkennbar sind. Zum Beispiel könnten Sie eine KI bitten, die Symptome einer medizinischen Erkrankung zu identifizieren und eine Antwort auf der Grundlage eines 50 Jahre alten Artikels erhalten, anstatt auf aktuellen Forschungsergebnissen. Das Ergebnis ist unwahrscheinlich offensichtlich, lächerlich falsch – aber die anfängliche Fassade der Plausibilität birgt ein reales Risiko für den Patienten und den Gesundheitsdienstleister.

Das gleiche gilt für alle Branchen – wenn die Daten, die an das KI-Modell gefüttert werden, alte, veraltete oder unvollständige Informationen enthalten, besteht ein hohes Risiko für falsche Ausgaben. Und da mehr Unternehmen KI in geschäftskritische Prozesse integrieren, wächst das Risiko, falsche Schlussfolgerungen aus schlecht regulierten Daten zu ziehen.

Genauigkeit für den Regulator

Dies ist nicht nur ein Problem für den täglichen Betrieb – es ist auch eine erhebliche Compliance-Herausforderung. Die regulatorischen Anforderungen entwickeln sich schnell, um Bedenken hinsichtlich ungenauer KI zu adressieren. Zum Beispiel haben sich einige frühe regulatorische Maßnahmen zur KI ergeben; bemerkenswerterweise, als Italien ChatGPT vorübergehend verbot, und die EU-Datenschutzbehörde startete eine spezielle Taskforce, um mögliche Durchsetzungsmaßnahmen gegen ChatGPT zu koordinieren.

Eine der aussagekräftigsten regulatorischen Änderungen war die Verabschiedung des EU-KI-Gesetzes, des weltweit ersten umfassenden Rechtsrahmens für KI. Das Gesetz legt Pflichten basierend auf dem Risikograd der KI-Systeme fest, von “inakzeptablen Risiken”, die verboten sind, bis hin zu “hohen Risiken”, die strenge Anforderungen an Transparenz, Datenqualität, Governance und menschliche Aufsicht erfordern.

Die Bedeutung des EU-KI-Gesetzes liegt nicht in seinem ambitionierten Umfang, sondern wichtigerweise in dem Präzedenzfall, den es setzt. Regulierungsbehörden machen deutlich, dass KI bindenden, durchsetzbaren Regeln unterliegen wird und dass Organisationen Compliance und Transparenz bei der Nutzung von KI als integralen Bestandteil der KI-Adoption und nicht als Nachgedanke behandeln müssen.

Das Gesetz hat einen weiten Anwendungsbereich und kann einen großen Teil der KI-Entwicklungen beeinflussen. Im Kern geht es darum, KI sicher zu machen, während fundamentale Rechte und Werte respektiert werden. Innerhalb dieses neuen prinzipiellen Ökosystems wird die Diagnose potenzieller Quellen für KI-Genauigkeiten vorgenommen, einschließlich der Daten und Datensätze, die die Modelle speisen, der Modell-Opazität und des Zugriffs sowie des System-Designs und der Nutzung. KI-Lösungen sind ein Konstrukt aus all diesen – Probleme mit einem dieser Aspekte können zu negativen Ergebnissen führen. Nicht nur das, sondern die Daten, die in die Konstruktion, Modellentwicklung, Bereitstellung und den Betrieb von KI einfließen, werden wahrscheinlich hauptsächlich aus Geschäftsunterlagen bestehen, die selbst verschiedenen Compliance-Anforderungen unterliegen.

Mit anderen Worten, die regulatorische Umgebung um KI herum wird zunehmend strenger – und das gilt ebenso für die Daten-Eingabe wie für die Daten-Ausgabe, obwohl letztere mehr Schlagzeilen erhält.

Fünf Schritte, um KI konforme, aktuelle und relevante Daten zu füttern

Um diese doppelte Herausforderung zu meistern – sowohl die konforme Datenhandhabung als auch die hohe Qualität der Eingabe, die eine hohe Qualität der Ausgabe ermöglicht – benötigen Unternehmen Kontrolle über die Trainings- und Inferenzdaten. Leider fehlt es vielen Unternehmen noch an dieser Kontrolle.

Zumindest sollten Organisationen ihre umfassenderen Compliance- und Governance-Programme auf KI-Initiativen anwenden. Sie müssen beginnen, geeignete Aufzeichnungen über die Daten zu erstellen, die sie KI-Modellen füttern, wie Modelle und Systeme konzipiert sind, sowie über die Entscheidungen und Inhalte, die über KI generiert werden.

Es wird jedoch auch kritisch wichtig für Organisationen, einen Schritt weiter zu gehen und sicherzustellen, dass sie die volle Kontrolle über alle Daten haben, die möglicherweise in KI-Einsätzen verwendet werden könnten, sei es für die anfängliche Schulung oder die “Live”-Arbeit. Dazu ist eine hochwertige Daten-Management- und Speicherstrategie erforderlich, um sicherzustellen, dass alle relevanten Daten intelligent gesammelt, gereinigt, gespeichert, klassifiziert und berechtigt werden. Um dies zu erreichen, müssen Organisationen vier wichtige Schritte in Betracht ziehen:

1. Daten-Herkunft und -Provenienz

Dies umfasst die Aufrechterhaltung eines Aufzeichnungs- und Dokumentationsprozesses für die Herkunft der Daten, ihren Ursprung, die Eigentümerschaft und alle Änderungen in den Metadaten (falls zulässig) während ihres gesamten Lebenszyklus. Es bedeutet auch, reiche Metadaten und alle zugrunde liegenden Dokumente oder Artefakte, aus denen sie abgeleitet werden, aufrechtzuerhalten.

2. Daten-Authentizität

Dies erfordert die Aufrechterhaltung einer klaren Beweiskette für alle Daten, das Speichern von Objekten in ihren natürlichen Formen und das Hashen von Objekten, um zu demonstrieren, dass die Daten unverändert bleiben. Zusätzlich müssen Organisationen eine vollständige Audit-Historie für jedes Objekt und für alle Aktionen und Ereignisse in Bezug auf Änderungen aufrechterhalten.

3. Daten-Klassifizierung

Die Feststellung der Art einer Menge oder eines Typs von Daten ist wichtig. Organisationen müssen in der Lage sein, strukturierte Daten, semi-strukturierte Daten und strukturierte Datensätze zu regeln. Die Zuweisung eines eindeutigen Schemas zu jeder Klasse ermöglicht es Organisationen, diverse Datensätze ohne eine starre, einheitliche Ontologie zu verwalten – und vermeidet es, die Daten unnötigerweise zu manipulieren, um sie in eine inflexible Datenstruktur zu zwängen.

4. Daten-Normierung

Die Festlegung gemeinsamer Definitionen und Formate von Metadaten ist wichtig für die Verwendung in Analytics- und KI-Lösungen. Klar definierte Schemas sind ein wichtiger Bestandteil, zusammen mit Tools, die Daten transformieren oder auf eine konsistente, normierte Sicht verwandter Daten abbilden können.

5. Daten-Berechtigungen

Unternehmen benötigen granulare Berechtigungskontrollen, einschließlich auf Objekt- oder Feld-Ebene, basierend auf Benutzer- oder System-Profilen. Dies bedeutet, dass die richtigen Daten für Benutzer und Systeme verfügbar sind, die dazu berechtigt sind, während der Zugriff für diejenigen, die nicht berechtigt sind, eingeschränkt oder beschränkt wird.

Mit diesen entscheidenden Elementen an Ort und Stelle werden Unternehmen am besten in der Lage sein, sicherzustellen, dass die Daten, die KI-Modellen zur Verfügung gestellt werden, sowohl von hoher Qualität als auch konform sind. KI wird Verbesserungen und Effizienzsteigerungen in verschiedenen Branchen vorantreiben – aber damit dies geschehen kann, ist eine solide Datenbasis unerlässlich.

George Tziahanas ist der VP of Compliance und Associate General Counsel bei Archive360. George ist ein leitender Angestellter mit einem tiefen Verständnis für komplexe Technologie, Bankvorschriften, Datenverwaltung und Risikomanagement. Und arbeitet eng mit aktuellen und potenziellen Kunden zusammen, um sicherzustellen, dass komplexe Anforderungen an die Datenverwaltung und die Einhaltung von Vorschriften erfüllt werden, die mit den Lösungen von Archive360 übereinstimmen.