Vordenker
Daten – nicht KI – sind der Schlüssel

Künstliche Intelligenz ist in Unternehmen so tief verwurzelt, dass fast jeder Betrieb in irgendeiner Weise von der Technologie beeinflusst wird. Und wenn wir uns speziell den Einsatz von KI ansehen, sehen wir, dass Unternehmen neue Formen der KI nutzen, um bestehende Systeme zu erneuern und zu verbessern. Tatsächlich hat eine kürzlich Umfrage der IT-Leiter stellten fest, dass 98 % entweder bereits agentenbasierte KI zur Orchestrierung von GenAI-Anwendungsfällen verwenden oder dies in naher Zukunft planen.
Angesichts der explosionsartigen Zunahme an KI-Tools und -Technologien in den letzten Jahren erfreuen sich KI-Agenten zunehmender Beliebtheit. Sie unterstützen Unternehmen bei allen Aufgaben – von der Verbesserung des Kundenerlebnisses und -supports über die Automatisierung interner Prozesse bis hin zur Optimierung bestehender GenAI-Modelle. Die Skalierung der zahlreichen Vorteile von KI-Agenten und KI im Allgemeinen auf das gesamte Unternehmen ist jedoch nicht ohne Schwierigkeiten.
Der Grund, warum viele Unternehmen mit KI und insbesondere KI-Agenten im großen Maßstab zu kämpfen haben, liegt im Vertrauen, nicht in der Technologie. KI-Agenten arbeiten naturgemäß mit einer Vielzahl von Systemen. Wo auch immer diese Systeme eingesetzt werden, ist es mehr als wahrscheinlich, dass sie auf hochsensible Daten angewiesen sind – seien es riesige Mengen an Kundendaten, medizinischen Informationen oder Bank- und Finanzdaten. Genau hier liegt das Problem. Die Einbindung riesiger Datenmengen in ein KI-Modell ohne die entsprechende Datenschutz- und Sicherheitsinfrastruktur birgt für Unternehmen ein erhebliches Risiko.
Unabhängig von den Ergebnissen eines KI-Modells ist es nur dann sinnvoll, wenn die Daten, mit denen es trainiert wurde, vertrauenswürdig sind. Doch es geht um weit mehr als nur die Gewährleistung der Datensicherheit. Insbesondere bei KI-Agenten ist ein hohes Maß an Autonomie in der Funktionsweise dieser Modelle erforderlich. Um Vertrauen aufzubauen, ist es entscheidend, dass sie wissen, wer, wann und wie auf die Daten zugreifen darf.
Die Bewältigung von Datenschutzproblemen ist jedoch nicht unmöglich. Mit den richtigen Datenrichtlinien, Metadaten-Governance, APIs und unternehmensweiten Autorisierungsrahmen können IT-Verantwortliche in Unternehmen sicherstellen, dass die Daten, die ihre KI antreiben, sicher und vertrauenswürdig sind.
Lass uns genauer hinschauen.
Datenschutz und die Notwendigkeit von KI im großen Maßstab
Eines der übergeordneten Ziele der Integration von KI-Agenten in Unternehmen ist die Optimierung von Arbeitsabläufen und Systemen. Ohne entsprechende Sicherheitsvorkehrungen können dabei jedoch unbeabsichtigt sensible Daten offengelegt werden. In einer Zeit, in der Datenlecks und bösartige Angriffe immer häufiger auftreten, können Daten, die von Unbefugten offengelegt oder abgerufen werden, eine Katastrophe bedeuten – nicht nur für eine KI-Initiative, sondern für das gesamte Unternehmen. Die durchschnittlichen Kosten eines Datenlecks betragen über 4 Mio. US$ Laut IBM ab 2025. Die Einführung von KI beschleunigt sich rasant und lässt Governance und Sicherheit oft auf der Strecke, da Unternehmensleiter auf mehr Innovation, tiefere Einblicke und neue Wachstumsmöglichkeiten drängen. Doch trotz der rasanten Verbreitung von KI entwickeln sich regulatorische Richtlinien und Anforderungen weiter, um Schritt zu halten und die Datensicherheit zu gewährleisten.
Direkt von der Datenschutz zu den CCPA Selbst langjährige Richtlinien wie HIIPA und regulatorische Komplikationen stellen eine komplexe Herausforderung für die Skalierung von KI-Agenten dar. KI-Tools, die große Datenmengen benötigen, bergen, wenn sie unkontrolliert bleiben, ein erhöhtes Risiko. Da KI-Modelle all diese internen Systeme umfassen, werden dabei häufig sensible Daten verschoben und abgerufen. Wenn es um Daten geht, legen Regulierungsbehörden weltweit größeren Wert auf Datenschutz, effektive Governance und robuste Sicherheit.
Neuere Richtlinien wie DORA– eine Reihe von Richtlinien zum IKT-Risikomanagement für in der EU tätige Finanzdienstleistungsunternehmen – verlangen ausdrücklich die Klassifizierung und Meldung von IKT-Vorfällen, einschließlich solcher, die die Vertraulichkeit, Integrität oder Verfügbarkeit von Daten beeinträchtigen. Obwohl diese Richtlinie in erster Linie auf operative Belastbarkeit abzielt, hat sie auch Auswirkungen auf die KI-Einführung. Da immer mehr KI-Initiativen, darunter auch solche mit KI-Agenten, unternehmensweit auf Daten zugreifen, steigt das Risiko eines unbefugten Zugriffs. Sollte ein KI-Projekt zum Verlust oder zur Offenlegung von Daten führen, würden solche Vorschriften schnell relevant.
Da so viel auf dem Spiel steht, dürfen Unternehmensorganisationen nicht aus den Augen verlieren, wie wichtig Sicherheit, Governance und Datenzugriff sind.
Aufbau der Grundlage für KI-Agenten
Unternehmen benötigen eine Grundlage, die auf effektiver Governance basiert und klare Leitplanken und durchsetzbare Regeln enthält, die definieren, was Agenten tun dürfen und was nicht. Im Mittelpunkt dieser Grundlage steht die Daten-Governance – die übergeordneten Richtlinien, Standards und Strukturen, die den verantwortungsvollen Umgang mit Daten im gesamten Unternehmen regeln. Diese Richtlinien stellen sicher, dass Agenten ihre Rollen nicht überschreiten, sei es durch den Zugriff auf eingeschränkte Datensätze oder das Initiieren von Prozessen ohne menschliche Aufsicht.
Die Implementierung einer robusten Datenverwaltungsrichtlinie sollte mit einigen Schlüsselpunkten beginnen. Dazu gehören Verantwortlichkeit und Eigentum, Datenqualität und -konsistenz, Sicherheit und Datenschutz, Compliance und Überprüfbarkeit sowie Transparenz und Rückverfolgbarkeit.
Mit diesen Punkten als Grundlage der Governance gewinnen Unternehmensleiter mehr Kontrolle über die Entscheidungsfindung, mehr Vertrauen in ihre Daten und reduzieren das regulatorische Risiko durch Datensilos. Dies wird durch die Nutzung von Funktionen wie Metadatenverwaltung, Datenklassifizierung und Datenherkunft erreicht, um Transparenz und Transparenz darüber zu schaffen, wer oder welche KI-Tools Zugriff haben. Jeder dieser Mechanismen ermöglicht es Unternehmen, nachzuvollziehen, woher Daten stammen, wie sie fließen und wie sie transformiert werden.
Technologie ist wichtig, aber Vertrauen ist das Wichtigste
Jedes Mal, wenn ein neues KI-Modell oder eine neue Innovation auf den Markt kommt, steigt die Akzeptanz rasant. Doch jede KI-Initiative birgt auch Risiken – wenn auch nicht immer dort, wo man vermuten würde. Die technischen Herausforderungen, die die Einführung neuer Tools oft behindern, sind nicht immer der Grund für die langsame KI-Integration. Oftmals liegt es an den Daten. Insbesondere am Vertrauen in diese Daten und an Datenschutzbedenken. Da sich KI so schnell weiterentwickelt, kann es manchmal eine Herausforderung sein, sicherzustellen, dass Aspekte wie Zugriffskontrollen, Datenverwaltung, Herkunft und Compliance mit diesem Tempo Schritt halten.
Governance ist ein wichtiger Bestandteil von Vertrauen, erfordert aber auch effektive Evaluierungen. Insbesondere im Bereich der agentenbasierten KI besteht noch eine große Lücke bei standardisierten Evaluierungen. Dabei sind sie unerlässlich, um sicherzustellen, dass Systeme zuverlässig und sicher funktionieren.
Ganz gleich, ob Sie die Leistung interner Systeme optimieren, die Betrugserkennung verbessern oder einfach das Kundenerlebnis für Ihre Kunden angenehmer gestalten möchten: Die besten KI-Agenten und KI-Initiativen im Allgemeinen basieren alle auf vertrauenswürdigen Daten, Datenschutz und Sicherheit.












