Verbind je met ons

Gedachte leiders

De groeiende vraag naar energie van AI: zijn datacenters klaar om bij te blijven?

mm

Terwijl kunstmatige intelligentie (AI) raast, zetten de energiebehoeften datacenters onder druk tot het breekpunt. Volgende generatie AI-technologieën zoals generatieve AI (genAI) transformeren niet alleen industrieën, hun energieverbruik heeft ook gevolgen voor vrijwel elk onderdeel van dataservers, van CPU's en geheugen tot accelerators en netwerken.

GenAI-applicaties, waaronder Microsoft Copilot en OpenAI's ChatGPT, vergen meer energie dan ooit tevoren. Tegen 2027 zouden alleen al het trainen en onderhouden van deze AI-systemen voldoende energie kunnen verbruiken. elektriciteit om een ​​klein land van stroom te voorzien voor een heel jaar. En de trend neemt niet af: de afgelopen tien jaar zal de vraag naar stroom voor componenten zoals CPU's, geheugen en netwerken naar verwachting met 160% groeien tegen 2030, volgens een Goldman Sachs melden.

Het gebruik van grote taalmodellen verbruikt ook energie. Bijvoorbeeld, een ChatGPT-query verbruikt ongeveer tien keer een traditionele Google-zoekopdracht. Kunnen de snelle ontwikkelingen in de industrie, gezien de enorme energiebehoefte van AI, duurzaam worden beheerd, of zullen ze verder bijdragen aan het wereldwijde energieverbruik? McKinsey's recente onderzoek toont aan dat ongeveer 70% van de stijgende vraag in de datacentermarkt gericht is op faciliteiten die zijn uitgerust om geavanceerde AI-workloads te verwerken. Deze verschuiving verandert fundamenteel hoe datacenters worden gebouwd en gerund, omdat ze zich aanpassen aan de unieke vereisten van deze krachtige genAI-taken.

“Traditionele datacenters werken vaak met verouderde, energie-intensieve apparatuur en vaste capaciteiten die moeite hebben om zich aan te passen aan fluctuerende werklasten, wat leidt tot aanzienlijke energieverspilling,” Mark Rydon, Chief Strategy Officer en medeoprichter van het gedistribueerde cloud computing-platform Aethir, heeft me verteld. “Gecentraliseerde activiteiten creëren vaak een onevenwicht tussen de beschikbaarheid van hulpbronnen en de consumptiebehoeften, waardoor de industrie op een kritiek punt terechtkomt waarop ontwikkelingen het risico lopen de milieudoelstellingen te ondermijnen naarmate de vraag naar AI toeneemt.”

Brancheleiders pakken de uitdaging nu rechtstreeks aan en investeren in groenere ontwerpen en energiezuinige architecturen voor datacenters. Inspanningen variëren van het adopteren van hernieuwbare energiebronnen tot het creëren van efficiëntere koelsystemen die de enorme hoeveelheden warmte die door genAI-workloads worden gegenereerd, kunnen compenseren.

Datacenters revolutioneren voor een groenere toekomst

Lenovo heeft onlangs de ThinkSystem N1380 Neptunus, een sprong voorwaarts in vloeistofkoelingtechnologie voor datacenters. Het bedrijf beweert dat de innovatie organisaties al in staat stelt om krachtige computing in te zetten voor genAI-workloads met aanzienlijk lager energieverbruik - tot 40% minder stroom in datacenters. N1380 Neptune, maakt gebruik van NVIDIA's nieuwste hardware, waaronder de Blackwell en GB200 GPU's, waardoor het mogelijk is om biljoen-parameter AI-modellen te verwerken in een compacte opstelling. Lenovo zei dat het de weg wil vrijmaken voor datacenters die 100KW+ serverracks kunnen bedienen zonder de noodzaak van speciale airconditioning.

“We hebben een belangrijke vereiste geïdentificeerd bij onze huidige consumenten: datacenters verbruiken meer stroom bij het verwerken van AI-werklasten vanwege verouderde koelarchitecturen en traditionele structurele kaders,” Robert Daigle, Global Director of AI bij Lenovo, heeft me verteld. “Om dit beter te begrijpen, hebben we samengewerkt met een klant die gebruikmaakt van high-performance computing (HPC) om hun stroomverbruik te analyseren. Hieruit kwamen we tot de conclusie dat we het energieverbruik met 40% konden verminderen.” Hij voegde toe dat het bedrijf rekening hield met factoren zoals ventilatorvermogen en het stroomverbruik van koeleenheden en deze vergeleek met standaardsystemen die beschikbaar zijn via Lenovo's datacenterbeoordelingsservice, om de nieuwe datacenterarchitectuur te ontwikkelen in samenwerking met Nvidia.

In het Verenigd Koninkrijk gevestigd adviesbureau voor informatietechnologie AVEVAzei dat het voorspellende analyses gebruikt om problemen met datacentercompressoren, motoren, HVAC-apparatuur, luchtbehandelingssystemen en meer te identificeren.

"We ontdekten dat het juist de voortraining van generatieve AI is die enorm veel energie verbruikt," Jim Chappell, hoofd AI & Advanced Analytics bij AVEVA, heeft me verteld. "Met onze voorspellende AI-gestuurde systemen willen we problemen vinden ruim voordat een SCADA of controlesysteem dat doet, waardoor datacenteroperators apparatuurproblemen kunnen oplossen voordat ze grote problemen worden. Daarnaast hebben we een Vision AI Assistant die native integreert met onze controlesystemen om andere soorten afwijkingen te vinden, waaronder temperatuurhotspots bij gebruik met een warmtebeeldcamera."

Ondertussen is gedecentraliseerd computergebruik voor AI-training en -ontwikkeling via GPU's via de cloud in opkomst als alternatief. Aethir's rydon legde uit dat door het verdelen van rekentaken over een breder, aanpasbaarder netwerk, het energieverbruik geoptimaliseerd kan worden door de vraag naar hulpbronnen af ​​te stemmen op de beschikbaarheid, wat vanaf het begin tot een aanzienlijke vermindering van afval leidt.

“In plaats van te vertrouwen op grote, gecentraliseerde datacenters, verspreidt onze 'Edge'-infrastructuur rekentaken naar knooppunten die dichter bij de gegevensbron liggen, wat de energiebelasting voor gegevensoverdracht drastisch vermindert en de latentie verlaagt,” zei Rydon. “Het Aethir Edge-netwerk minimaliseert de behoefte aan constante koeling met hoog vermogen, omdat de werklasten over verschillende omgevingen worden verdeeld in plaats van geconcentreerd op één locatie. Hierdoor worden energie-intensieve koelsystemen vermeden die typisch zijn voor centrale datacenters.”

Op dezelfde manier zijn bedrijven zoals Amazon en Google experimenteren met hernieuwbare energiebronnen om de stijgende energiebehoefte in hun datacenters te beheren. Microsoft investeert bijvoorbeeld fors in hernieuwbare energiebronnen en efficiëntieverhogende technologieën om het energieverbruik van hun datacenters te verminderen. Google heeft ook stappen ondernomen om over te stappen op koolstofvrije energie en koelsystemen te verkennen die het energieverbruik in datacenters minimaliseren. “Kernenergie is waarschijnlijk de snelste weg naar koolstofvrije datacenters. Grote datacenterproviders zoals Microsoft, Amazon en Google zijn nu zwaar investeren in dit type energieopwekking voor de toekomst. Met kleine modulaire reactoren (SMR's) maken de flexibiliteit en de tijd tot productie dit een nog levensvatbaardere optie om Net Zero te bereiken,” toegevoegd Chappell van AVEVA.

Kunnen AI en duurzaamheid in datacenters naast elkaar bestaan?

Ugur Tigli, CTO bij AI-infrastructuurplatform MiniIO, zegt dat we weliswaar hopen op een toekomst waarin AI zich kan ontwikkelen zonder een enorme piek in het energieverbruik, maar dat dit op de korte termijn gewoon niet realistisch is. “De gevolgen op de lange termijn zijn lastiger te voorspellen,” hij vertelde mij, “maar we zullen een verschuiving zien in de beroepsbevolking, en AI zal helpen het energieverbruik op alle fronten te verbeteren.” Tigli is van mening dat naarmate energie-efficiëntie een prioriteit wordt op de markt, we een groei in de computersector zullen zien, terwijl het energieverbruik in andere sectoren zal afnemen, vooral omdat deze sectoren efficiënter worden.

Hij wees er ook op dat er onder consumenten steeds meer belangstelling is voor groenere AI-oplossingen. “Stel je een AI-applicatie voor die 90% efficiënt is, maar slechts de helft van de energie verbruikt. Dat is het soort innovatie dat echt van de grond zou kunnen komen,” Hij voegde eraan toe. Het is duidelijk dat de toekomst van AI niet alleen draait om innovatie, maar ook om de duurzaamheid van datacenters. Of het nu gaat om de ontwikkeling van efficiëntere hardware of slimmere manieren om resources te gebruiken, hoe we het energieverbruik van AI beheren, zal grote invloed hebben op het ontwerp en de werking van datacenters.

rydon benadrukte het belang van sectorbrede initiatieven die zich richten op duurzame datacenterontwerpen, energiezuinige AI-werklasten en open resource sharing. “Dit zijn cruciale stappen richting groenere bedrijfsvoering,” zei hij. “Bedrijven die AI gebruiken, moeten samenwerken met technologiebedrijven om oplossingen te creëren die de impact op het milieu verminderen. Door samen te werken, kunnen we AI naar een duurzamere toekomst sturen.”

Victor Dey is een tech-editor en schrijver die AI, crypto, data science, metaverse en cybersecurity binnen het enterprise domein behandelt. Hij kan bogen op een half decennium aan media- en AI-ervaring bij bekende media zoals VentureBeat, Metaverse Post, Observer en anderen. Victor heeft student-oprichters begeleid bij acceleratorprogramma's aan toonaangevende universiteiten, waaronder de University of Oxford en de University of Southern California, en heeft een masterdiploma in data science en analytics.