Vernetzen Sie sich mit uns

Vordenker

Warum blindes Vertrauen in KI Ihre bisher schlimmste Entscheidung sein könnte

mm

In 1979 ein IBM Schulungshandbuch gab eine einfache, aber eindringliche Warnung ab: „Ein Computer kann niemals zur Verantwortung gezogen werden; daher darf ein Computer niemals eine Managemententscheidung treffen.“ Und mehr als 45 Jahre später fühlt sich diese Aussage wie eine ignorierte Prophezeiung an.

Im Jahr 2025 unterstützt KI nicht nur; sie trifft autonome Entscheidungen und in vielen Fällen entscheidet sie nicht nur, sondern führt auch. Tatsächlich werden etwa 74% der Führungskräfte vertrauen KI bei der Geschäftsberatung stärker als Kollegen oder Freunden. 38 % vertrauen KI bei der Entscheidungsfindung und 44 % vertrauen der Argumentation der Technologie mehr als ihren eigenen Erkenntnissen. Der Wandel ist deutlich: KI ist das neue Bauchgefühl.

Doch es gibt ein Problem. Vertrauen in KI ist nur möglich, wenn der Algorithmus vertrauenswürdig ist. Und blindes Vertrauen, insbesondere in Blackboxes, die wir weder verstehen noch überprüfen können, ist ein Risiko, das als Fortschritt getarnt ist. Wie bei menschlicher Führung ist Vertrauen ohne Verantwortlichkeit gefährlich. Und wer trägt die Schuld, wenn KI Fehler macht?

Wenn das Werkzeug zum Boss wird

Was ursprünglich als Tool zur Optimierung von Backoffice-Abläufen diente, wird heute in zentralen Geschäftsprozessen eingesetzt. Unternehmen nutzen KI jedoch nicht nur zur Unterstützung menschlicher Entscheidungen; sie vertrauen KI, insbesondere generativer KI (GenAI), mittlerweile auch bei Geschäftsentscheidungen – von der Geschäftsstrategie über Kundenservice bis hin zur Finanzmodellierung und vielem mehr.

Dieser Wandel ist verständlich. KI lässt sich nicht ablenken, vergisst keine Anweisungen und lässt sich nicht von Emotionen trüben. Für viele Unternehmen bietet dies ein attraktives Gegenmittel gegen menschliche Fehler. Eine zentrale Frage bleibt jedoch: Können wir darauf vertrauen, dass KI die Führung übernimmt und selbstständig Entscheidungen trifft?

Die Antwort ist nicht eindeutig, aber man kann sie anhand der Art und Weise betrachten, wie wir die Vertrauenswürdigkeit von Menschen beurteilen: anhand ihrer Kompetenz, Zuverlässigkeit und klaren Absichten. Dieselben Prinzipien gelten auch für KI.

Um vertrauenswürdig zu sein, muss ein KI-System präzise, ​​zeitnahe und sachdienliche Ergebnisse liefern. Vertrauensniveau und Fehlertoleranz variieren jedoch je nach Kontext. Beispielsweise ist die Fehleranfälligkeit bei der Krebsdiagnose anhand medizinischer Bilder extrem gering. Umgekehrt besteht bei der Ideenfindung für eine Marketingkampagne mehr Spielraum für Experimente.

Wir haben bereits erlebt, dass KI autonome Entscheidungen in Bereichen wie der Kreditvergabe trifft. Banken nutzen Algorithmen, um die Kreditwürdigkeit in Sekundenschnelle zu ermitteln. Einzelhändler nutzen KI, um Lagerbestände und Preise ohne menschliches Zutun zu verwalten. Doch wir haben auch Misserfolge erlebt – beispielsweise bei selbstfahrenden Autos, die die Straßenverhältnisse falsch einschätzen.

Ein warnendes Beispiel zeigt die Risiken, die entstehen, wenn man zu viel Vertrauen in KI ohne ausreichende Aufsicht setzt. Derek Mobley – ein Schwarzer über 40 – bewarb sich über das KI-gesteuertes Einstellungssystem von Workday Seit 2017 wurde er jedes Mal abgelehnt. Er warf ihm Diskriminierung aufgrund seines Alters und seiner Herkunft vor. Im Mai 2025 gab das Gericht einer landesweiten Sammelklage statt. Die Gruppe umfasst alle Bewerber ab 40 Jahren, die sich seit September 2020 über Workday beworben hatten und aufgrund von KI-Empfehlungen abgelehnt wurden.

Dieses Beispiel verdeutlicht einen wichtigen Punkt: KI mangelt es an emotionaler Intelligenz, moralischer Urteilskraft und einem natürlichen Gerechtigkeitssinn. Und da sich KI vom menschlichen Assistenten zum unabhängigen Entscheidungsträger entwickelt, entsteht eine Rechenschaftslücke. Wenn Algorithmen ohne menschliche Kontrolle und Kontrolle laufen, können sie Fehlentscheidungen treffen und bestehende Vorurteile verstärken.

Die Frage rund um Black Boxes

Schwarze Kästen– wenn das System und die Logik einer KI nicht vollständig sichtbar sind – kommen immer häufiger vor. Obwohl sie sichtbare Ebenen haben, können Entwickler und Benutzer immer noch nicht sehen, was auf jeder Ebene vor sich geht, was sie undurchsichtig macht.

ChatGPT ist beispielsweise eine Blackbox, da selbst seine Entwickler unsicher, wie es funktioniert, da es mit so großen Datensätzen trainiert wird. Aber ist es aufgrund der mangelnden Transparenz jemals in Ordnung, einem KI-Modell zu „vertrauen“, ohne vollständig zu verstehen, wie es funktioniert?

Kurz gesagt, nein: KI-Halluzinationen Die Lage verschlechtert sich. Das bedeutet, dass KI in Szenarien mit hohem Risiko, wie etwa bei Finanzentscheidungen, Rechtsberatung und medizinischen Erkenntnissen, eine strenge Validierung, Querverweise und menschliche Überwachung erfordert.

Die Klage von Disney und Universal Die im Juni 2025 eingereichte Klage untermauert diesen Punkt. Die Studios behaupten, GenAI-Tools seien mit urheberrechtlich geschütztem Material trainiert worden, um ohne Zustimmung neue Inhalte zu erstellen. Dieser Fall verdeutlicht eine neue Realität: Wenn Unternehmen KI-Modelle einsetzen, die sie nicht vollständig verstehen, können sie für getroffene Entscheidungen zur Verantwortung gezogen werden. Und Unwissenheit schützt nicht vor Strafe, sondern ist eine Belastung.

Wir vertrauen jedoch oft komplexen Systemen, die wir nicht verstehen. Beispielsweise können die meisten Fluggäste die Flugphysik nicht erklären, dennoch steigen sie vertrauensvoll ins Flugzeug, weil wir durch wiederholte Begegnungen, gemeinsame Erfahrungen und eine hohe Sicherheitsbilanz Vertrauen aufgebaut haben.

Dieselbe Logik lässt sich auch auf KI anwenden. Es ist unvernünftig zu erwarten, dass jeder versteht, wie LLMs tatsächlich funktionieren. Vertrauen baut jedoch nicht auf Verständnis auf; es erfordert Vertrautheit, Transparenz über Einschränkungen und ein nachgewiesenes Muster zuverlässiger Leistung. Luft- und Raumfahrtingenieure wissen, welche Tests erforderlich sind und wie Fehler aussehen, und dasselbe müssen wir von GenAI-Anbietern verlangen. Das Grundprinzip der KI sollte „Vertrauen, aber überprüfen“ sein.

Darüber hinaus glauben Führungskräfte oft, dass KI die Wunderwaffe zur Lösung aller Geschäftsprobleme ist. Dieser Mythos plagt jedoch viele Unternehmen bei der Integration von KI. Führungskräfte bevorzugen zwar komplexe und anspruchsvolle Modelle, doch eine einfachere Lösung könnte nach einer Kosten-Nutzen-Analyse besser geeignet sein. KI ist ein mächtiges Instrument, aber nicht für jede Aufgabe geeignet. Unternehmen müssen das Problem erkennen, bevor sie ein Tool auswählen.

Wiederaufbau des Vertrauens in KI

Obwohl es klar ist, dass blindes Vertrauen in KI ein Problem darstellt, können KI-Systeme und -Algorithmen – bei sicherer Verwendung – das beste Werkzeug sein, das ein Unternehmen jemals besitzen wird.

Unternehmen, die KI-Tools nutzen möchten, sollten zunächst die Anbieter sorgfältig prüfen. Hat ein Unternehmen einen Bereich identifiziert, der von KI-Effizienz profitieren könnte, sollten Führungskräfte die Anbieter nicht nur anhand der Leistungsversprechen, sondern auch anhand der Governance-Kontrollen bewerten. Dazu gehört die Überprüfung der Modellentwicklung, der Verfügbarkeit von Erklärbarkeitstools, der Überwachung von Verzerrungen und der Verfügbarkeit von Prüfpfaden. Die Wahl eines Anbieters mit transparenten Prozessen ist entscheidend, um Risiken von Anfang an zu minimieren.

Der vielleicht wichtigste Punkt beim Aufbau von Vertrauen in KI-Systeme ist die Gewährleistung einer Datenverwaltung mit sauberen, repräsentativen und gut dokumentierten Datensätzen. Wie das Sprichwort sagt: „Garbage in, garbage out“. Wenn die Daten unvollständig, verzerrt oder ungenau sind, liefert selbst das fortschrittlichste Modell unzuverlässige Ergebnisse.

Um sicherzustellen, dass die Daten KI-fähig sind, sollten Unternehmen:

  • Überprüfen Sie vorhandene Datensätze auf Lücken und Duplikate und suchen Sie nach Quellen der Verzerrung

  • Standardisierung der Datenformate

  • Implementieren Sie Data-Governance-Richtlinien, die Eigentums- und Zugriffskontrollen definieren

Ein weiterer wichtiger Schritt für Führungskräfte sind Stresstests unter verschiedenen Bedingungen. Auch wenn ein Modell in kontrollierten Tests gut abschneidet, ist es wichtig, die Grenzen des Modells bei der Konfrontation mit neuen Daten oder unerwarteten Eingaben zu verstehen. Deshalb ist es wichtig, KI in verschiedenen Situationen zu testen: mit unterschiedlichen Benutzertypen, verschiedenen Anwendungsfällen und Daten aus unterschiedlichen Zeiträumen.

Auch die KI-Validierung ist eine fortlaufende Aufgabe. Da sich Daten im Laufe der Zeit ändern, können selbst zuverlässige KI-Modelle an Genauigkeit verlieren. Deshalb ist regelmäßiges Monitoring wichtig. Unternehmen müssen die Leistung des Modells täglich überwachen: Ist es noch genau? Oder nehmen die Fehlalarme zu? Und wie jedes System, das gewartet werden muss, sollten Modelle regelmäßig mit neuen Daten trainiert werden, um relevant zu bleiben.

KI ist weder vertrauenswürdig noch unzuverlässig; sie wird geprägt durch die Daten, aus denen sie lernt, die Menschen, die sie entwickeln, und die Regeln, denen sie unterliegt. Während sich KI vom nützlichen Werkzeug zum Unternehmensberater entwickelt, haben Führungskräfte die Möglichkeit, sie nicht nur zu nutzen, sondern dies auch bewusst und ethisch zu tun. Wenn wir dies richtig machen, wird KI in Zukunft nicht nur leistungsstark, sondern auch verantwortungsvoll sein, wobei die Verantwortung eindeutig bei ihren Entwicklern und Vorgesetzten liegt.

Martin Lewit ist SVP (Senior Vice President) von Nisum, ein globaler Beratungspartner, spezialisiert auf digitalen Handel und Evolution zur Abwicklung, Integrierung, Speicherung und erstellt KI-gestützte Plattformen und maßgeschneiderte Lösungen, die Wachstum ermöglichen, Abläufe optimieren und langfristigen Wert schaffen.

Martin verfügt über umfassende Erfahrung bei der Bewältigung komplexer geschäftlicher Herausforderungen mit innovativen Lösungen. Zu seinen Interessen zählen die Entwicklung und Schulung seiner Mitarbeiter sowie die Herstellung von Verbindungen, die neue und spannende Möglichkeiten schaffen. Er bietet effektive Führung, strategische Vision und einen täglichen Fokus auf den Aufbau einer innovativen Kultur gemäß dem Firmenmotto „Gemeinsam Erfolg schaffen“.