KĂĽnstliche Intelligenz
Google hat gerade echte Zahlen zum Energieverbrauch von KI veröffentlicht – und sie sind nicht das, was Sie denken

Der enorme Energieverbrauch von KI ist in aller Munde. Sie kennen die Schlagzeilen: „ChatGPT verbraucht so viel Strom wie ein kleines Land“ oder „Jede KI-Abfrage verbraucht eine Flasche Wasser.“
Google gerade aktuelle Daten veröffentlicht aus ihren Produktionssystemen, und die Zahlen erzählen eine völlig andere Geschichte.
Die tatsächlichen Energiekosten Ihrer KI-Abfrage
Hier ist, was Google herausgefunden hat: Der Median Gemini Die Textaufforderung verbraucht 0.24 Wattstunden Energie. Das ist weniger Strom, als neun Sekunden Fernsehen zu verbrauchen. Wasserverbrauch? Fünf Tropfen. Nicht fünf Gläser. Fünf Tropfen.
Die Kluft zwischen der öffentlichen Wahrnehmung und der Realität ist enorm. Frühere Schätzungen gingen davon aus, dass KI-Anfragen pro Abfrage zwischen 10 und 50 Milliliter Wasser verbrauchen. Einige Studien gehen von einem 30-mal höheren Energieverbrauch aus als Google in der Produktion misst.
Warum dieser große Unterschied? Weil bisher niemand reale Systeme im großen Maßstab gemessen hat. Akademische Studien führen isolierte Tests auf nicht ausgelasteter Hardware durch. Im Grunde messen sie den Kraftstoffverbrauch eines Autos, während es im Leerlauf auf der Einfahrt steht.
Die 44-fache Verbesserung
Google hat seine KI-Kohlenstoffemissionen in einem Jahr um das 44-fache reduziert. Nicht um 44 Prozent, sondern um das 44-fache.
Dies ist keine theoretische Verbesserung im Labor. Dies geschieht bereits jetzt auf den Systemen, die Milliarden von Abfragen verarbeiten. Erreicht wurde dies durch eine Kombination aus Softwareoptimierung (33-fache Verbesserung) und saubereren Energiequellen (1.4-fache Verbesserung).
Die meisten Studien betrachten nur die KI-Chips, die die Berechnungen durchführen. Das ist, als würde man den Energieverbrauch eines Restaurants messen, indem man nur die Öfen zählt und Kühlschränke, Lampen und die Klimaanlage außer Acht lässt.
Die Daten von Google zeigen das Gesamtbild: Ja, die KI-Beschleuniger verbrauchen 58 % der Energie. Sie benötigen aber auch normale Prozessoren und Speicher (24 %), Backup-Kapazitäten für die Zuverlässigkeit (10 %) und Kühlsysteme (8 %). Wenn Sie einen dieser Punkte bei Ihrer Messung außer Acht lassen, sind Ihre Zahlen im Grunde bedeutungslos.
Als Google die strenge Methode anwandte, die alle anderen verwenden – und nur die KI-Chips auf voll ausgelasteten Maschinen maß – sank der Energieverbrauch auf 0.10 Wattstunden. Das reale Produktionssystem verbraucht 2.4-mal mehr Energie, da reale Systeme Redundanz, Kühlung und unterstützende Infrastruktur benötigen.
Was dies tatsächlich für die Zukunft der KI bedeutet
Die Geschichte rund um den Energieverbrauch von KI bedarf eines Realitätschecks. Ja, KI verbraucht Energie. Richtig optimierte Systeme sind jedoch deutlich effizienter, als die Untergangsszenarien vermuten lassen.
Der Kontext ist hier entscheidend. Die 0.24 Wattstunden pro Abfrage? Amerikaner verbrauchen durchschnittlich etwa 30 Kilowattstunden Strom pro Tag. Man mĂĽsste 125,000 KI-Abfragen ausfĂĽhren, um den Energieverbrauch eines typischen Haushaltstages zu decken.
Noch dramatischer ist die Geschichte mit dem Wasserverbrauch. Diese fünf Tropfen Wasser pro Abfrage? Schon in der ersten Sekunde des Händewaschens verbrauchen Sie mehr Wasser.
Der Optimierungsstapel
Google erreicht diese Zahlen nicht durch einen einzigen Durchbruch. Sie sind Stapeloptimierungen ĂĽber jede Ebene des Systems.
Sie führen kleinere „Entwurfsmodelle“ aus, die Antworten skizzieren und diese nur bei Bedarf mit größeren Modellen abgleichen. Aus Effizienzgründen bündeln sie Tausende von Abfragen. Sie verwenden speziell für KI-Workloads entwickelte Chips, die 30-mal effizienter sind als die erste Generation.
Ihre Rechenzentren arbeiten mit nur 9 % mehr Overhead als das theoretische Minimum – im Grunde so effizient wie physikalisch möglich. Und sie werden zunehmend mit sauberer Energie betrieben, wodurch die Emissionen auch bei steigendem Stromverbrauch sinken.
Fazit
Die Wahrheit ist, dass effiziente KI-Systeme wesentlich nachhaltiger sein können als allgemein befürchtet. Dies erfordert jedoch eine umfassende Optimierung, die in den meisten Branchen noch nicht erreicht wurde.
Dies funktioniert nur, wenn Unternehmen ihren gesamten Stack tatsächlich optimieren und richtig messen. Die Unternehmen, die KI-Infrastruktur zweitrangig behandeln und ineffiziente Systeme in schmutzigen Stromnetzen betreiben? Sie sind diejenigen, die die Probleme verursachen, über die sich alle Sorgen machen.
Die Kluft zwischen effizienten und ineffizienten KI-Systemen ist enorm. Und derzeit setzt die Branche in weiten Teilen noch immer auf die ineffiziente Version.