Vordenker
Der wachsende Appetit von KI auf Energie: Sind Rechenzentren bereit, mitzuhalten?
Da künstliche Intelligenz (KI) voranschreitet, belasten ihre Energieanforderungen Rechenzentren bis zum Bruchpunkt. Next-Gen-KI-Technologien wie generative KI (genKI) verändern nicht nur Branchen – ihr Energieverbrauch betrifft fast jedes Rechenzentrumskomponente, von CPUs und Speicher über Beschleuniger bis hin zu Netzwerken.
GenKI-Anwendungen, darunter Microsofts Copilot und OpenAIs ChatGPT, verbrauchen mehr Energie als je zuvor. Bis 2027 könnten allein das Training und die Wartung dieser KI-Systeme genug Strom verbrauchen, um ein kleines Land für ein ganzes Jahr zu versorgen. Und der Trend verlangsamt sich nicht: Im Laufe des letzten Jahrzehnts wird der Energiebedarf für Komponenten wie CPUs, Speicher und Netzwerke bis 2030 um 160 % ansteigen, laut einem Bericht von Goldman Sachs.
Die Nutzung großer Sprachmodelle verbraucht auch Energie. Zum Beispiel verbraucht eine ChatGPT-Anfrage etwa zehnmal so viel Energie wie eine traditionelle Google-Suche. Angesichts der enormen Energieanforderungen von KI, kann die rasante Entwicklung der Branche nachhaltig gesteuert werden, oder wird sie weiter zum globalen Energieverbrauch beitragen? Eine aktuelle Studie von McKinsey zeigt, dass etwa 70 % der steigenden Nachfrage auf dem Rechenzentrums-Markt auf Einrichtungen abzielen, die in der Lage sind, fortschrittliche KI-Arbeitslasten zu bewältigen. Diese Veränderung verändert grundlegend, wie Rechenzentren gebaut und betrieben werden, da sie sich an die besonderen Anforderungen dieser leistungsstarken genKI-Aufgaben anpassen.
„Traditionelle Rechenzentren operieren oft mit veralteter, energieintensiver Ausrüstung und festen Kapazitäten, die Schwierigkeiten haben, sich an schwankende Arbeitslasten anzupassen, was zu erheblichem Energieverschwendung führt“, sagte Mark Rydon, Chief Strategy Officer und Mitgründer der verteilten Cloud-Computing-Plattform Aethir, gegenüber mir. „Zentralisierte Betriebe schaffen oft eine Ungleichheit zwischen Ressourcenverfügbarkeit und Bedarf, was die Branche an einen kritischen Punkt bringt, an dem Fortschritte die Umweltziele untergraben könnten, wenn die KI-getriebenen Anforderungen wachsen.“
Branchenführer gehen diesem Problem jetzt direkt an und investieren in umweltfreundlichere Designs und energieeffiziente Architekturen für Rechenzentren. Die Bemühungen reichen von der Nutzung erneuerbarer Energiequellen bis hin zur Schaffung effizienterer Kühlsysteme, die die enormen Mengen an Wärme ausgleichen können, die von genKI-Arbeitslasten erzeugt werden.
Rechenzentren revolutionieren, um eine grünere Zukunft zu schaffen
Lenovo hat kürzlich den ThinkSystem N1380 Neptune vorgestellt, einen großen Schritt vorwärts in der Flüssigkühltechnologie für Rechenzentren. Das Unternehmen behauptet, dass diese Innovation es bereits ermöglicht, Organisationen hochleistungsfähige Computer für genKI-Arbeitslasten mit deutlich geringerem Energieverbrauch – bis zu 40 % weniger Strom in Rechenzentren – einzusetzen. N1380 Neptune nutzt NVIDIAs neueste Hardware, einschließlich der Blackwell- und GB200-GPUs, und ermöglicht die Verarbeitung von trillionenfach parametrischen KI-Modellen in einer kompakten Konfiguration. Lenovo sagte, es wolle den Weg für Rechenzentren ebnen, die ohne die Notwendigkeit von dedizierter Klimaanlage 100-KW-Server-Racks betreiben können.
„Wir haben eine erhebliche Anforderung von unseren aktuellen Kunden identifiziert: Rechenzentren verbrauchen mehr Energie, wenn sie KI-Arbeitslasten bearbeiten, aufgrund veralteter Kühlarbeiten und traditioneller Strukturen“, sagte Robert Daigle, Global Director of AI bei Lenovo, gegenüber mir. „Um dies besser zu verstehen, haben wir mit einem Kunden für Hochleistungsrechnen (HPC) zusammengearbeitet, um seinen Stromverbrauch zu analysieren, was uns zu dem Schluss führte, dass wir den Energieverbrauch um 40 % reduzieren könnten.“ Er fügte hinzu, dass das Unternehmen Faktoren wie Lüfterleistung und den Energieverbrauch von Kühleinheiten berücksichtigt hat und diese mit Standard-Systemen verglichen hat, die über Lenovos Rechenzentrums-Bewertungsdienst verfügbar sind, um die neue Rechenzentrums-Architektur in Partnerschaft mit Nvidia zu entwickeln.
Das in Großbritannien ansässige IT-Beratungsunternehmen AVEVA sagte, es nutze Predictive-Analytics, um Probleme mit Rechenzentrums-Verdichtern, Motoren, HVAC-Geräten, Luftbehandlern und mehr zu identifizieren.
„Wir haben festgestellt, dass es das Pre-Training von generativer KI ist, das enorme Mengen an Energie verbraucht“, sagte Jim Chappell, AVEVAs Leiter von KI und Advanced Analytics, gegenüber mir. „Mit unseren predictiven KI-getriebenen Systemen zielen wir darauf ab, Probleme zu finden, lange bevor ein SCADA- oder Kontrollsystem dies tut, und ermöglichen es Rechenzentrums-Betreibern, Ausrüstungsprobleme zu beheben, bevor sie zu großen Problemen werden. Darüber hinaus haben wir einen Vision-AI-Assistenten, der sich nahtlos in unsere Kontrollsysteme integriert, um andere Arten von Anomalien zu finden, einschließlich Temperatur-Hotspots, wenn er mit einer Wärmebildkamera verwendet wird.“
Währenddessen entsteht dezentrales Rechnen für KI-Training und -Entwicklung durch GPUs über die Cloud als Alternative. Aethirs Rydon erklärte, dass durch die Verteilung von Rechenaufgaben auf ein breiteres, anpassungsfähigeres Netzwerk der Energieverbrauch optimiert werden kann, indem die Ressourcennachfrage mit der Verfügbarkeit abgestimmt wird – was zu erheblichen Reduzierungen von Abfall von Anfang an führt.
„Anstatt auf große, zentralisierte Rechenzentren zu vertrauen, verteilt unsere Edge-Infrastruktur Rechenaufgaben auf Knoten, die näher an der Datenquelle liegen, was den Energiebedarf für den Datentransfer erheblich reduziert und die Latenz senkt“, sagte Rydon. „Das Aethir-Edge-Netzwerk minimiert die Notwendigkeit für ständige Hochleistungs-Kühlung, da Arbeitslasten auf verschiedene Umgebungen verteilt werden, anstatt in einem einzigen Ort konzentriert zu sein, was hilft, energieintensive Kühlsysteme zu vermeiden, die typisch für zentrale Rechenzentren sind.“
Ebenso experimentieren Unternehmen wie Amazon und Google mit erneuerbaren Energiequellen, um den steigenden Energiebedarf in ihren Rechenzentren zu bewältigen. Microsoft investiert beispielsweise stark in erneuerbare Energiequellen und effizienzsteigernde Technologien, um den Energieverbrauch in seinen Rechenzentren zu reduzieren. Google hat Schritte unternommen, um auf kohlenstofffreie Energie umzusteigen und Kühlsysteme zu erforschen, die den Energieverbrauch in Rechenzentren minimieren. „Kernenergie ist wahrscheinlich der schnellste Weg zu kohlenstofffreien Rechenzentren. Große Rechenzentrums-Anbieter wie Microsoft, Amazon und Google investieren jetzt heavily in diese Art von Energieerzeugung für die Zukunft. Mit kleinen modularen Reaktoren (SMRs) machen Flexibilität und Zeit bis zur Produktion dies zu einer noch viableren Option, um Netto-Null zu erreichen“, fügte AVEVAs Chappell hinzu.
Können KI und Rechenzentrums-Nachhaltigkeit koexistieren?
Ugur Tigli, CTO bei der KI-Infrastruktur-Plattform MinIO, sagt, dass wir uns zwar eine Zukunft wünschen, in der KI ohne einen enormen Anstieg des Energieverbrauchs voranschreiten kann, dass dies jedoch kurzfristig nicht realistisch ist. „Langfristige Auswirkungen sind schwieriger vorherzusagen“, sagte er gegenüber mir, „aber wir werden eine Veränderung in der Arbeitswelt sehen, und KI wird dazu beitragen, den Energieverbrauch überall zu verbessern.“ Tigli glaubt, dass mit der Priorisierung von Energieeffizienz auf dem Markt ein Wachstum im Rechnen einhergeht mit Rückgang des Energieverbrauchs in anderen Sektoren, insbesondere wenn diese effizienter werden.
Er wies auch darauf hin, dass es ein wachsendes Interesse unter den Verbrauchern an grünen KI-Lösungen gibt. „Stellen Sie sich eine KI-Anwendung vor, die mit 90 % Effizienz arbeitet, aber nur die Hälfte der Energie verbraucht – das ist die Art von Innovation, die wirklich durchstarten könnte“, fügte er hinzu. Es ist klar, dass die Zukunft von KI nicht nur von Innovation geprägt ist – sondern auch von der Nachhaltigkeit von Rechenzentren. Ob durch die Entwicklung effizienterer Hardware oder intelligentere Ressourcennutzung – wie wir den Energieverbrauch von KI steuern, wird die Gestaltung und den Betrieb von Rechenzentren maßgeblich beeinflussen.
Rydon betonte die Bedeutung von branchenweiten Initiativen, die sich auf nachhaltige Rechenzentrums-Designs, energieeffiziente KI-Arbeitslasten und offene Ressourcennutzung konzentrieren. „Diese sind entscheidende Schritte auf dem Weg zu einer grüneren Betriebsweise“, sagte er. „Unternehmen, die KI nutzen, sollten mit Technologie-Unternehmen zusammenarbeiten, um Lösungen zu entwickeln, die den Umwelt-Einfluss reduzieren. Durch Zusammenarbeit können wir KI in eine nachhaltigere Zukunft lenken.“












