Vernetzen Sie sich mit uns

Vordenker

Wenn KI uns schneller, aber nicht intelligenter macht – und was Führungskräfte dagegen tun müssen

mm

Für viele bietet KI die Lösung für vielfältige geschäftliche Herausforderungen. Sie kann als Copilot fungieren, Arbeitsabläufe automatisieren und als Analyseassistent dienen. Doch während Unternehmen schneller agieren, vernachlässigen sie gleichzeitig ihr analytisches Denken. Das eigentliche Risiko der KI liegt daher nicht im Arbeitsplatzverlust, sondern im Wissensverlust. 

Die Forschung hat es bereits bewiesen. Die SBS Swiss Business School stellte fest, dass eine verstärkte Nutzung von KI mit Folgendem zusammenhängt: vermindertes kritisches Denken Fähigkeiten.

Dieser Verlust hat schwerwiegende Folgen, da die Fähigkeiten, die menschliches Urteilsvermögen wertvoll machen, verkümmern, weil sich Teams auf Maschinenergebnisse verlassen, ohne deren Funktionsweise zu verstehen. Geschwächtes Denkvermögen, unhinterfragte Annahmen und eine mangelhafte Modellsteuerung führen nicht zu höherer KI-Effizienz, sondern erhöhen die Anfälligkeit von Unternehmen.

Das Missverständnis der KI-Kompetenz

Unternehmen feiern schnellere Ergebnisse als Beweis für eine erfolgreiche KI-Einführung. Doch Geschwindigkeit ist ein irreführender Indikator. Was viele Teams als KI-Kompetenz bezeichnen, wird zunehmend fälschlicherweise für prompte Sprachgewandtheit gehalten. Mitarbeiter müssen jedoch den erhaltenen Antworten vertrauen können. 

Wenn ein Ergebnis plausibel klingt, gehen viele davon aus, dass es auch stimmt. Modellüberprüfungen werden vernachlässigt und Annahmen bleiben ungeprüft. Die Belegschaft verlässt sich dann zunehmend auf KI für Schlussfolgerungen, die früher logisches Denken erforderten. 

A 2025-Forschungsstudie Diese Beobachtung wird durch weitere Studien gestützt. Es wurde „eine signifikante negative Korrelation zwischen häufiger Nutzung von KI-Tools und kritischem Denkvermögen festgestellt, die durch eine verstärkte kognitive Entlastung vermittelt wird“. Jüngere Teilnehmer, die mit KI-Schnittstellen am besten vertraut sind, erzielten zudem niedrigere Werte im kritischen Denken als ältere Teilnehmer. 

Dieser Punkt wird auch durch Erkenntnisse aus der Studie gestützt. Economic TimesEine Studie ergab, dass grundlegende KI-Kompetenz nicht durch das Beherrschen von Eingabeaufforderungen entsteht. Sie beruht vielmehr auf menschlichen Fähigkeiten, die Maschinenausgaben interpretieren, hinterfragen und in den Kontext einordnen. KI-Kompetenz wiederum basiert auf kritischem Denken, analytischem Schlussfolgern, kreativer Problemlösung und emotionaler Intelligenz. Fehlen diese Fähigkeiten, werden Nutzer zu passiven Konsumenten von KI-Inhalten anstatt zu aktiven Entscheidungsträgern. 

Besorgniserregend ist, dass diese kognitive Entlastung auf neuronaler Ebene beobachtet wurde. Die Economic Times berichtete über eine Studie des MIT Media Lab, die ergab, dass Teilnehmer, die ChatGPT häufig nutzten, eine geringere Merkfähigkeit, niedrigere Leistungswerte und eine verminderte Hirnaktivität aufwiesen, wenn sie Aufgaben ohne KI-Unterstützung bearbeiteten. Die Forscher formulierten es so: „Dieser Komfort hatte seinen Preis auf Kosten der kognitiven Fähigkeiten.“ Die Schüler, die KI nutzten, schnitten „auf allen Ebenen schlechter ab: neuronal, sprachlich und bei der Punktevergabe“.

Diese Ergebnisse verdeutlichen, was KI-Abkürzungen untergraben. Sie schwächen die kognitiven Fähigkeiten, auf die sich Fachleute täglich verlassen: 

  • Analytisches Denken
  • Hypothesentest
  • Instinkte zur Fehlerbehebung
  • Domänenintuition

Jüngste Forschungsergebnisse beleuchten endlich die bisher übersehenen Schwächen von KI auf menschlicher Ebene. Dies wird insbesondere bei wichtigen Entscheidungen, wie Risikobewertung, Prognosen und Ressourcenverteilung, zu einem immer größeren Problem, da sie alle ein Kontextverständnis erfordern. Je weniger Menschen die Logik hinter einem Modell verstehen, desto unsicherer wird die Entscheidungsfindung. 

Warum mangelnde Kompetenzen im Umgang mit dem Menschen Risiken auf Unternehmensebene bergen

Die neue Kompetenzteilung schwächt die Regierungsführung

Mit der zunehmenden Verbreitung von KI entsteht in vielen Organisationen eine Kluft. Auf der einen Seite stehen die Prüfer, die Ergebnisse hinterfragen, analysieren, interpretieren und optimieren können. Auf der anderen Seite stehen die Anwender, die die Ergebnisse unkritisch übernehmen und zur Tagesordnung übergehen.

Diese Spaltung ist weitaus bedeutsamer, als den meisten Führungskräften bewusst ist. Erfolgreiche Unternehmensführung hängt von Teams ab, die die Annahmen eines Modells hinterfragen können, nicht nur die Ergebnisse. Wenn immer weniger Menschen verstehen, wie ein System funktioniert, können kleine Veränderungen unbemerkt bleiben, wie etwa erste Anzeichen von Modellabweichungen oder Veränderungen der Datenqualität. 

Wenn Teams KI-Ergebnisse unkritisch übernehmen, verbreiten sich kleine Fehler und summieren sich schnell. Übermäßiges Vertrauen wird zu einem zentralen Fehlerherd. Das wirft die Frage auf: Was passiert, wenn eine Organisation Urteilsvermögen schneller auslagert, als sie eigenes Verständnis aufbaut? 

Diese Governance-Lücke hemmt auch Innovationen. Teams, die KI nicht analysieren können, sind nicht in der Lage, Eingabeaufforderungen zu verfeinern oder neue Erkenntnisse zu erkennen. Innovationen konzentrieren sich auf einen immer kleiner werdenden Expertenkreis, was die Anpassungsfähigkeit des Unternehmens verlangsamt. 

Innovation stagniert, wenn die menschliche Neugier nachlässt.

Künstliche Intelligenz kann viele Aufgaben beschleunigen und automatisieren, aber sie kann den menschlichen Instinkt, Fragen zu stellen und über offensichtliche Antworten hinauszugehen, nicht ersetzen. Doch dieser angeborene menschliche Instinkt schwindet. Dies wird als Verlust der Handlungsfähigkeit bezeichnet. vierstufig Fortschritte bei der Art und Weise, wie Menschen Denkprozesse an Maschinen auslagern:

  1. Experimentieren: Aus Neugier und Bequemlichkeit beginnen die Menschen, kleine Aufgaben an KI zu delegieren. Das ist bestärkend und effizient. 
  2. Integration: KI wird Teil des Alltags. Die Menschen verfügen weiterhin über grundlegende Fähigkeiten, fühlen sich aber bei der Arbeit mit Unterstützung etwas unwohl. 
  3. Abhängigkeit: KI beginnt, komplexe Entscheidungen zu treffen. Die Nutzer werden selbstzufrieden, und ihre kognitiven Fähigkeiten beginnen zu verkümmern, oft unbemerkt. 
  4. Sucht: Auch bekannt als selbstgewählte Blindheit. Menschen können ohne KI nicht effektiv funktionieren, bleiben aber von ihrer eigenen Autonomie überzeugt. 

Diese Entwicklung ist wichtig, weil KI die Fähigkeit untergräbt, Wissenslücken zu erkennen und innovative Lösungen für neue Probleme zu finden. Diese höheren Fähigkeiten erfordern ständiges Training. Doch der Komfort von KI macht es leicht, sie zu vernachlässigen. 

Organisationen werden dadurch zwar effizient, aber unkreativ. Forschung und Entwicklung sind auf menschliche Neugier und Skepsis angewiesen, beides nimmt ab, wenn Ergebnisse nicht hinterfragt werden. Dieser Verlust an Neugier und Handlungsfähigkeit stellt ein strategisches Risiko dar. 

Der Verlust von implizitem Wissen macht die Organisation brüchig.

In gesunden, funktionierenden Teams fließt Fachwissen horizontal durch den Austausch unter Kollegen und vertikal von erfahrenen zu jüngeren Mitarbeitern. Doch wenn Mitarbeiter ihre Fragen an KI statt an Menschen richten, schwächen sich diese Mentoring-Kreisläufe ab. Jüngere lernen nicht mehr von Expertenmeinungen und verinnerlichen deren Urteile, und erfahrenere Mitarbeiter dokumentieren ihr Wissen zunehmend nicht mehr, da KI Routineaufgaben übernimmt. 

Mit der Zeit schwindet das Kernwissen. Dieses Risiko zeigt sich jedoch erst nach und nach, sodass Unternehmen zwar produktiv wirken, ihr Fundament aber brüchig wird. Wenn ein Modell versagt oder Anomalien auftreten, fehlt den Teams die nötige Fachkompetenz, um souverän reagieren zu können.

Eine Fallstudie über eine Wirtschaftsprüfungsgesellschaft, veröffentlicht in Der Teufelskreis des Kompetenzverlusts Die Studie ergab, dass die langfristige Abhängigkeit von kognitiver Automatisierung zu einem deutlichen Rückgang menschlicher Expertise führt. Je mehr Vertrauen die Beschäftigten in automatisierte Funktionen setzten, desto schwächer wurden ihr Bewusstsein für ihre Tätigkeiten, die Aufrechterhaltung ihrer Kompetenzen und die Beurteilung ihrer Ergebnisse. Die Forscher weisen darauf hin, dass dieser Kompetenzverlust von Mitarbeitern und Führungskräften unbemerkt bleibt, wodurch Teams bei Systemausfällen unvorbereitet sind. 

Was Führungskräfte tun müssen, um die Führungsebene wieder zu stärken und übermäßige Abhängigkeit zu vermeiden

Unternehmen können die Einführung von KI nicht verlangsamen, aber sie können das Urteilsvermögen ihrer Mitarbeiter stärken, was die Zuverlässigkeit von KI erhöht. Dies beginnt mit einer Neudefinition von KI-Kompetenz im gesamten Unternehmen, denn schnelles flüssiges Beherrschen ist nicht gleichzusetzen mit echter Kompetenz. Wahre Kompetenz beinhaltet das Verständnis der Logik eines Modells und das Wissen, wann Maschinenausgaben korrigiert werden sollten.  

Um dies zu verstehen, benötigen Mitarbeiter Schulungen darüber, wie das Modell den Kontext vereinfacht, wie sich Abweichungen im Arbeitsalltag bemerkbar machen und worin der Unterschied zwischen einer selbstsicher klingenden und einer gut begründeten Aussage besteht. Sobald diese Grundlage geschaffen ist, können Führungskräfte kritisches Denken wieder in die täglichen Arbeitsabläufe integrieren, indem sie Kontrollmechanismen wie die folgenden standardisieren:

  • Welche Annahme liegt diesem Modell zugrunde?
  • Was würde diese Ausgabe falsch machen?
  • Widerspricht dies irgendetwas, was wir aus Erfahrung wissen? 

Diese wichtige Analyse dauert nur wenige Minuten, wirkt aber der Krise der kognitiven Auslagerung entgegen und hilft, Mitarbeiter und KI-Modellausgaben im Griff zu behalten. 

Unternehmen schulen ihre Mitarbeiter am besten an realen Systemen. Schulungen konzentrieren sich jedoch häufig auf ideale Szenarien. Doch in der Praxis sind die Systeme oft unrealistisch, Daten unvollständig, der Kontext unklar und menschliches Urteilsvermögen entscheidend. 

Wenn beispielsweise ein Logistikunternehmen sein Routenplanungsteam ausschließlich mit sauberen Datensätzen trainiert hätte, in denen die KI einwandfrei funktionierte, wären die Mitarbeiter völlig unvorbereitet. Reale Bedingungen wie Wetterkapriolen können dazu führen, dass KI-Modelle fehlerhafte Anweisungen geben. Hätten die Mitarbeiter das System noch nie in einem unsicheren Zustand erlebt, würden sie die ersten Anzeichen von Abweichungen nicht erkennen und nicht wissen, wann sie eingreifen müssen. In diesem Fall liegt das Problem nicht am Modell selbst, sondern am unzureichenden Training. Es ist unerlässlich, die Mitarbeiter im Umgang mit der vorhandenen KI zu schulen, einschließlich Abweichungsszenarien, mehrdeutigen Ergebnissen, unvollständigen Daten und Fehlern. Nur so können menschliche Fähigkeiten wiederhergestellt werden. 

Um sicherzustellen, dass die Schulungen praxisnah sind, müssen Führungskräfte nicht nur die Systemergebnisse, sondern auch die menschlichen Fähigkeiten messen. Unternehmen erfassen typischerweise die Modellgenauigkeit oder Kosteneinsparungskennzahlen, beobachten aber selten Verhaltensweisen, die auf eine starke menschliche Kontrolle hindeuten. Dokumentieren Mitarbeitende, warum sie den Modellergebnissen vertrauen? Melden sie ungewöhnliche Ergebnisse? Diese beobachtbaren Handlungen zeigen, ob sich die Urteilsfähigkeit verbessert oder verschlechtert. Wenn Führungskräfte Mitarbeitende anerkennen und belohnen, die durch tiefgründiges Denken die Modellvorschläge verbessern oder berechtigte Zweifel an KI-Ergebnissen äußern, stärken sie die Gewohnheiten, die den KI-Einsatz robust machen. 

KI wird immer schneller werden. Daran besteht kein Zweifel. Die Frage ist, ob Teams die nötigen Fähigkeiten besitzen, KI zu hinterfragen, zu korrigieren und umzusteuern, wenn etwas schiefgeht. Genau hier wird der Unterschied liegen. Die Organisationen, die jetzt in menschliches Urteilsvermögen investieren, werden den wahren Nutzen aus KI ziehen, nicht nur eine brüchige Effizienz. Alle anderen bauen auf Sand.

Mit über 25 Jahren Erfahrung in Biochemie, künstlicher Intelligenz, Weltraumbiologie und Unternehmertum entwickelt Guillermo innovative Lösungen für das menschliche Wohlbefinden auf der Erde und im Weltraum. Er ist Mitgründer und COO von Deep Space Biology, einem Unternehmen, das sich auf die Entwicklung einer Multi-Omics-BioSpace-KI-Plattform für die sichere Weltraumforschung konzentriert, und leitet die KI-Strategie bei [Name des Unternehmens/der Organisation]. NisumAls Unternehmensberater hat er zur KI-Vision der NASA für die Weltraumbiologie beigetragen und Innovationspreise erhalten. Er besitzt einen Master of Science in Künstlicher Intelligenz vom Georgia Institute of Technology (Georgia Tech), den er mit Auszeichnung abschloss. Darüber hinaus lehrte er als Universitätsprofessor Kurse zu maschinellem Lernen, Big Data und Genomforschung.