Connect with us

Vordenker

Überprüfung von ‘Wie Menschen ChatGPT nutzen’

mm

Ich bin Ilya Romanov und arbeite an einem KI-Produkt im Stealth-Modus. In meinem letzten Artikel sprach ich über einen (nicht wirklich?) disruptiven MIT-Bericht über KI und Umsatz. Ein weiterer viel diskutierter Bericht ist erschienen – „Wie Menschen ChatGPT nutzen“. Sein mutiger Auftakt „Insgesamt stellen wir fest, dass ChatGPT durch Entscheidungsunterstützung wirtschaftlichen Wert bietet, was besonders in wissensintensiven Jobs wichtig ist“ ließ mich fragen, ob es endlich einen nachgewiesenen Beweis dafür gibt, dass KI einen greifbaren Beitrag zu einem Arbeitsprozess und Umsatz leistet. Lassen Sie uns nun genauer hineintauchen!

Der Bericht und das Team

‘Wie Menschen ChatGPT nutzen’ wurde von OpenAI-Forschern und dem Harvard-Ökonomen David Deming erstellt. Ihre kombinierte Expertise in KI-Engineering, datenschutzfreundlicher Datenanalyse und wirtschaftspolitischer Beratung ermöglichte die Erstellung dieser umfassenden groß angelegten empirischen Studie über ChatGPT.

Der Studie liegen 1,5 Millionen Gespräche mit ChatGPT zugrunde. Das Team nutzte den datenschutzfreundlichen Trichter, um Benutzer anonym zu halten, während sie dennoch die Absicht hinter den Nachrichten verstanden. Im Wesentlichen wurde jedes ChatGPT-Gespräch durch einen automatisierten Filter gezogen, der alle Namen oder persönlichen Details entfernte, bevor die Forscher es sahen. Diese gereinigten, maschinengenerierten Labels (wie Themen oder Absicht) wurden analysiert. Um grundlegende demografische Hintergründe wie Bildung oder Beruf zu verknüpfen, arbeitete das Team in einer sicheren Clean-Room-Umgebung, in der sie nur aggregierte Daten von Benutzergruppen mit mindestens 100 Benutzern abrufen konnten, so dass keine einzelne Person oder Nachricht identifiziert oder wiedergefunden werden konnte.

Ergebnisse

Die mutige Aussage im ‘Abstract’ ist eine der wichtigsten Erkenntnisse darüber, wie KI in der modernen Wirtschaft Wert liefert. Im Gegensatz zu den zahlreichen ‘Automatisiere-alles’-Lösungen, die in letzter Zeit aufgetaucht sind, wird ChatGPT hauptsächlich als Entscheidungsunterstützungswerkzeug und nicht als reine Aufgabenautomatisierungsplattform eingesetzt. Der Bericht stellt zwei Arten von Aufgaben vor, die ChatGPT von Benutzern zugewiesen werden: ‘Fragen’ und ‘Tun’. Ersteres bezieht sich auf Aufgaben wie das Abrufen von Informationen, Beratung oder Führung für bessere Entscheidungen (‘Was ist der Unterschied zwischen Korrelation und Kausalität?’). Letzteres bezieht sich auf das tatsächliche Ausführen von Aufgaben wie das Verfassen von E-Mails, das Schreiben von Berichten und sogar das Erstellen von Code (‘Schreibe eine E-Mail an meinen Vorgesetzten, in der ich sage, dass ich den Vertrieb nicht erreichen konnte, obwohl ich mehrmals angerufen habe.’).

Interessanterweise unterscheidet der Bericht zwischen Arbeits- und Nichtarbeitsgesprächen. Alle Nichtarbeitsgespräche machen bis zu 70 % im Jahr 2025 aus, was einen starken Anstieg gegenüber 53 % im Jahr 2024 zeigt. Persönliche Interaktionen konzentrieren sich hauptsächlich auf alltägliche Aufgaben (‘Wie-mache-ich’-Ratschläge und Tutoring) und Schreibunterstützung (Redigieren oder Übersetzen). Diese Zunahme und der Kontext der Nutzung positionieren ChatGPT als täglichen Begleiter – den neuen Google sozusagen – für Exploration, kreatives Arbeiten und Entscheidungsfindung außerhalb der Arbeitsplatzes.

Der Bericht zeigt, dass 49 % aller Nachrichten ‘Fragen’ sind, verglichen mit nur 40 % ‘Tun’-Anfragen. Das Geheimnis ist, dass ‘Fragen’-Nachrichten schneller wachsen und höhere Zufriedenheitsbewertungen von ChatGPT-Benutzern erhalten. Im Juli 2024 waren ‘Fragen’ und ‘Tun’ fast gleich, sie machten 46 % aller ChatGPT-Nachrichten aus. Bis Juni 2025 stieg ‘Fragen’ auf 51,6 %, was einem absoluten Anstieg von 5,6 Prozentpunkten und einem relativen Gewinn von 12 % entspricht, während ‘Tun’ auf 34,6 % fiel, was einem relativen Rückgang von -25 % entspricht.

Was bedeutet diese Divergenz? Der wirtschaftliche Nutzen, so argumentiert der Bericht, liegt in der schnelleren und besser informierten Entscheidungsfindung in wissensintensiven Jobs, was die Produktivität steigert. In wissensintensiven Jobs, in denen Geschäftsergebnisse direkt von der Qualität und Geschwindigkeit der Entscheidungen beeinflusst werden, kann der Zugang zu besser verarbeiteten Informationen, alternativen Perspektiven und hervorragender analytischer Unterstützung die Arbeitsleistung der Mitarbeiter erheblich steigern.

Die Grundlage für die Schlussfolgerung sind die Ergebnisse. Einerseits sind Benutzer mit akademischen Abschlüssen etwa 2 Prozentpunkte eher bereit, ChatGPT für ‘Fragen’ zu nutzen und 1,6 Prozentpunkte weniger bereit, ‘Tun’-Nachrichten zu senden, im Vergleich zu weniger gebildeten Benutzern. In ähnlicher Weise sind Benutzer in hochbezahlten wissenschaftlichen und technischen Berufen eher bereit, KI für ‘Fragen’ zu nutzen – 47 % der arbeitsbezogenen Nachrichten sind ‘Fragen’ in computerbezogenen Jobs.

Die unsichtbaren Entscheidungskompetenzen, die das menschliche Gehirn bei Weitem übersteigen, können in Geld ausgedrückt werden – nicht in Bezug auf die von OpenAI erzielten Umsätze (ein beeindruckendes 13 Milliarden Dollar an wiederkehrenden jährlichen Umsätzen, Stand Anfang August dieses Jahres), sondern in Verbraucherüberschuss. Vereinfacht ausgedrückt ist der Verbraucherüberschuss die Lücke zwischen dem Höchstbetrag, den eine Person bereit ist, für einen Dienst zu zahlen, und dem tatsächlichen Preis, den sie zahlt. Zum Beispiel bin ich bereit, 100 Dollar für ein monatliches ChatGPT-Abonnement zu zahlen, aber ich zahle nur 20 Dollar, also beträgt der Verbraucherüberschuss 80 Dollar.

Im großen Maßstab fand die Forschung von Collis und Brynjolfsson (2025) den Verbraucherüberschuss in den USA allein bei mindestens 97 Milliarden Dollar. Und es scheint aus ihrer Forschung, dass Menschen im Durchschnitt 98 Dollar erhalten müssten, um den Einsatz von generativer KI für einen Monat einzustellen. Der Wert, den ChatGPT für Benutzer in Arbeits- und Nichtarbeitskontexten hat, ist enorm, und es ist sicher zu sagen, dass es in einem Unternehmenskontext einen noch größeren finanziellen Gewinn gibt.

Warum Fragen?

Als ich das Team hinter diesem Bericht recherchierte und (Überraschung!) Perplexity einlud, mit mir über diesen Bericht nachzudenken, konnte ich nicht umhin, mich zu fragen, warum Menschen ChatGPT eher ‘Fragen’ als ‘Tun’ nutzen.

Um es in wissenschaftliche Worte zu fassen, möchte ich auf eine Forschung verweisen, die im Bericht zitiert wird. Ide und Talamas (2025) stellten zwei Rollen vor, die KI im Arbeitsplatz spielt: Mitarbeiter, der Ergebnisse liefert, d. h. Arbeit leistet, und Kopilot, der Problemlösungen verbessert, ohne Endprodukte zu liefern. Die Daten aus ‘Wie Menschen ChatGPT nutzen’ unterstützen das Kopilot-Paradigma: Menschen nutzen ChatGPT eher zum ‘Fragen’ als zum ‘Tun’ (49 % vs 40 %) und ‘Fragen’ ist auf dem Vormarsch und ‘Entscheidungen treffen und Probleme lösen’ zählt zu den Top-Arbeitsaktivitäten in jeder befragten Berufsgruppe. In einem Nussshell bietet ChatGPT Ratgeber statt Arbeit in den meisten Fällen.

Also ist KI in den meisten Fällen ein Kopilot (hat Microsoft etwas gewusst, als sie ihr KI-Tool benannt haben… wenn Sie den Wink verstehen). Aber warum? Scrollen Sie durch Linkedin und Sie sehen ‘Automatisiere dies’ und ‘Automatisiere jenes’.

Ich habe darüber nachgedacht, als ich den Bericht las und hunderte begeisterter Linkedin-Beiträge von KI-Enthusiasten, die endlich das Skript gefunden haben, um KI zum Funktionieren zu bringen. Meine Annahme ist, dass diese Dominanz von ‘Fragen’-Typ gegenüber ‘Tun’-Typ mit ChatGPT möglicherweise nur ein Reflexion der aktuellen (oder vergangenen) Einschränkungen des Modells und nicht einer grundlegenden öffentlichen Präferenz für KI als Kopilot ist. Es ist wahrscheinlich, dass Benutzer KI als echten Mitarbeiter nutzen werden, sobald es eine wirklich leistungsfähige agentische KI-Lösung gibt. Vereinfacht ausgedrückt wollen Menschen KI als Mitarbeiter nutzen, aber es gibt noch Einschränkungen.

Aus meiner Erfahrung und dem, was ich während der CustDev-Interviews gehört habe, gehe ich davon aus, dass es einen ernsthaften Nachteil gibt, den KI noch nicht überwinden kann. Einerseits fehlt es an Kontext. Zweitens kann nicht jede Arbeit in eine einfache Anfrage (oder ich bin einfach nicht geduldig genug) aufgeteilt werden.

Lassen Sie mich diese beiden Punkte erläutern. Da KI an Kontext mangelt, kann sie nicht frei bei der Inhaltserschaffung eingesetzt werden. Sie muss überwacht werden und die Anfrage muss möglicherweise für ein unterschiedliches, besseres Ergebnis überarbeitet werden. IBM erklärte die Idee in wissenschaftlichen Begriffen. Menschen sammeln reiche situative Verständnisse dank kontinuierlicher Wahrnehmung, Erinnerung und realer Welt Erfahrung, während KI-Assistenten rein durch Vorhersage des nächsten Tokens (~Wort) basierend auf einem festen ‘Kontextfenster’ von aktuellen Eingaben operieren. KI hat ein kurzes Gedächtnis und frühere Informationen gehen verloren, sobald die Speicherkapazität aufgefüllt ist.

Große Sprachmodelle haben Schwierigkeiten mit mehrstufigen komplexen Aufgaben. Leistung und Kohärenz verschlechtern sich, wenn Aufgaben kombiniert werden, Prompt Drive erklärt. Es gibt einen Ansatz, um diese Einschränkung zu überwinden – den sogenannten Divide-and-Conquer-Ansatz. Allerdings wird anerkannt, dass keine einzelne Anfrage alle Nuancen erfassen kann, also bleibt KI ein exzellenter Kopilot, während sie ein begrenzter Mitarbeiter bleibt.

Jetzt habe ich mich gefragt, ob sich dieses Verhältnis (49 % vs 40 %) mit anderen KI-Tools wiederholt?

  • 60 % der an Perplexity AI gesendeten Nachrichten sind forschungsgetriebene Anfragen und nicht reine Inhaltserschaffung, laut App Labx.
  • DeepSeek R1 erzielt hohe Punkte als fortgeschrittener Mitarbeiter für Logikaufgaben und Kopilot für Ketten von Gedanken, laut seinem internen Bericht.
  • GitHub Copilot (der Hinweis ist im Namen, richtig?) ist für Editorvorschläge für Code, Debugging und Lernunterstützung konzipiert. Es ist sicher anzunehmen, dass seine Rolle darin besteht, zu helfen und nicht zu tun.
  • Microsoft Copilot zeigt eine ungefähre Gleichverteilung zwischen ‘Fragen’ und ‘Tun’, die die Nutzungsprofile für ChatGPT widerspiegelt.

Also – was lassen uns die Ergebnisse mit? Wie ich es sehe, ist KI ein leistungsstarker Booster für wissensintensive Arbeit, der Entscheidungsfindung beschleunigt und sich in direkten Zeitersparnissen und indirekten Umsatzgewinnen niederschlägt. Sich gegen KI zu wehren, um ‘menschliche Note’ oder ‘einzigartigen Inhalt’ zu bevorzugen, bedeutet, auf lange Sicht zu verlieren. Menschen nutzen ChatGPT und andere KI-Assistenten, um Entscheidungsfindung zu verbessern und nicht, um einen menschlichen Entscheidungsträger zu ersetzen.

Wird sich das Muster ändern? Werden Menschen den massiven Gehirnverfall aufgrund der zunehmenden Delegation von Arbeit an KI sehen? Bleiben Sie dran für meinen nächsten Artikel über die Auswirkungen von KI auf das menschliche Gehirn und kognitive Fähigkeiten.

Ilya Romanov ist ein Unternehmer und AI-Enthusiast mit über 15 Jahren Erfahrung im Marketing in Branchen wie Reisen, Banking, E-Commerce, Krypto und AI. Diese vielfältige Erfahrung gibt ihm tiefere Einblicke in die Natur verschiedener Unternehmen. In seinen Schriften konzentriert er sich darauf, wie AI im Geschäftsleben eingesetzt wird und wie sie die Welt um uns herum verändert.