ソートリーダー
AIの増大する電力消費:データセンターは対応できるか?
人工知能(AI)が進化するにつれて、そのエネルギー需要はデータセンターを限界まで追い込んでいます。次世代のAI技術であるジェネレーティブAI(genAI)のみならず、産業を変革するだけでなく、CPU、メモリ、加速器、ネットワークなど、データサーバーのほぼすべてのコンポーネントのエネルギー消費に影響を及ぼしています。
GenAIアプリケーション、たとえばMicrosoftのCopilotやOpenAIのChatGPTは、以前よりも多くのエネルギーを必要とします。2027年までに、これらのAIシステムのトレーニングとメンテナンスだけで、1年間で小さな国を動かすのに十分な電力が消費される可能性があります。而且、この傾向は減速する兆しを見せていません。過去10年間で、CPU、メモリ、ネットワークなどのコンポーネントの電力需要は、2030年までに160%増加するとの予測があります。これは、ゴールドマン・サックスの報告書によるものです。
大規模言語モデルもエネルギーを消費します。たとえば、ChatGPTのクエリは、従来のGoogle検索よりも約10倍の電力を消費します。AIの巨大な電力需要を考えると、業界の急速な進歩は持続可能な方法で管理できるのでしょうか。あるいは、さらに世界のエネルギー消費に貢献するのでしょうか。McKinseyの最近の調査によると、データセンター市場の需要の約70%は、先進的なAIワークロードを処理できる施設に向けられているようです。この変化は、データセンターの構築と運用の方法を根本的に変え、独自の要件を持つこれらの高電力genAIタスクに適応させています。
「従来のデータセンターは、多くの場合、老朽化したエネルギー集約型の設備と固定容量で運営されており、変動するワークロードに適応するのに苦労し、結果として大量のエネルギーが浪費される」と、分散クラウドコンピューティングプラットフォームAethirのチーフストラテジー担当兼共同創設者であるマーク・ライドンは私に話しました。「集中運用は、リソースの可用性と需要のバランスを崩し、業界を重要な局面に追い込んでおり、AI駆動の需要が増加するにつれて、環境目標が損なわれる可能性がある」。
業界のリーダーたちは今、課題に直面しています。データセンターのよりグリーンな設計とエネルギー効率の高いアーキテクチャへの投資を進めています。取り組みは、再生可能エネルギー源の採用から、genAIワークロードによって生成される大量の熱を相殺できるより効率的な冷却システムの作成まで、幅広い分野に及んでいます。
よりグリーンな未来のためのデータセンターの革命
Lenovoは最近、ThinkSystem N1380 Neptuneを導入しました。これは、データセンターの液体冷却技術における大きな進歩です。同社は、この革新がすでに組織に、高電力コンピューティングをgenAIワークロードで大幅に低電力で導入できるようにしていることを主張しています。N1380 Neptuneは、NVIDIAの最新ハードウェア、BlackwellとGB200 GPUを活用し、コンパクトなセットアップで1兆パラメータのAIモデルを処理できるように設計されています。Lenovoは、専用の空調システムを必要とせずに100KW以上のサーバーラックを動かすことができるデータセンターの道を切り開くことを目指しています。
「現在の顧客から大きな要望がありました。データセンターは、旧来の冷却アーキテクチャと伝統的な構造フレームワークにより、AIワークロードを処理する際に多くの電力を消費している」と、LenovoのAIグローバルディレクターであるロバート・デイグルは私に話しました。「これをよりよく理解するために、私たちは高性能コンピューティング(HPC)の顧客と協力して、彼らの電力消費を分析し、40%のエネルギー使用量の削減が可能であると結論付けた」。彼は、ファン電力や冷却ユニットの電力消費を考慮し、これらをLenovoのデータセンター評価サービスを介して提供される標準システムと比較して、新しいデータセンター構造をNvidiaと共同で開発したと述べました。
イギリスを拠点とするITコンサルティング会社AVEVAは、予測分析を使用して、データセンターのコンプレッサ、モーター、HVAC機器、エアハンドラーなどでの問題を特定しています。
「ジェネレーティブAIの事前トレーニングが大量の電力を消費することがわかりました」と、AVEVAのAIおよび高度分析責任者であるジム・チャペルは私に話しました。「私たちの予測AI駆動システムを通じて、SCADAまたは制御システムが問題を検知する前に問題点を特定し、データセンター運営者が機器の問題を解決できるようにします。また、制御システムとネイティブに統合されたVision AIアシスタントもあり、熱画像カメラと組み合わせて使用すると温度のホットスポットなどの異常も検知できます」。
一方、AIトレーニングと開発のための分散コンピューティングが、GPUを介したクラウドでの代替手段として登場しています。Aethirのライドンは、計算タスクをより広範で適応性の高いネットワークに分散することで、エネルギー使用量を最適化し、リソース需要と可用性のバランスをとることで、無駄を大幅に削減できることを強調しています。
「大規模な集中型データセンターに頼るのではなく、私たちの『エッジ』インフラストラクチャは、計算タスクをデータソースに近いノードに分散し、データ転送のためのエネルギーロードと遅延を大幅に削減します」とライドンは述べました。「Aethir Edgeネットワークは、ワークロードを単一の場所に集中させるのではなく、さまざまな環境に分散することで、常に高電力の冷却が必要な集中型データセンターのエネルギー集約型冷却システムの必要性を最小限に抑えます」。
同様に、AmazonやGoogleを含む企業は、データセンターの電力需要を管理するために、再生可能エネルギー源の実験を進めています。Microsoftは、データセンターのエネルギー消費を削減するために、再生可能エネルギー源と効率性向上技術に大量に投資しています。Googleも、データセンターで二酸化炭素排出量をゼロにし、電力消費を最小限に抑える冷却システムの研究に取り組んでいます。「核エネルギーは、カーボンフリーのデータセンターへの最も迅速な道であると思われます。Microsoft、Amazon、Googleなどの主要なデータセンター提供者は、このような発電への投資を進めています。小型モジュラー炉(SMR)では、柔軟性と生産までの時間が、ネットゼロを達成するためのより実行可能な選択肢となっています」と、AVEVAのチャペルは述べました。
AIとデータセンターの持続可能性は共存できるか
AIインフラストラクチャプラットフォームMinIOのCTOであるウグル・ティグリは、短期的には、AIの進歩とエネルギー消費の低減が同時に実現することは現実的ではないと述べています。「長期的な影響は予測が難しいですが、労働力の変化が見られ、AIがエネルギー消費の改善に貢献することになります」と彼は私に話しました。ティグリは、エネルギー効率が市場の優先事項になると、コンピューティングの成長と他の分野でのエネルギー使用の低減が見られるだろうと信じています。特に、他の分野がより効率的になるにつれてです。
また、グリーンなAIソリューションに対する消費者の関心が高まっていることも指摘しています。「90%の効率で動作するAIアプリケーションが、半分の電力で動作するようなイノベーションが実現したら、それが大きなブレークスルーとなるでしょう」と彼は述べました。AIの未来は、革新だけではなく、データセンターの持続可能性についても考える必要があります。ハードウェアの効率化やリソースの賢い使用方法の開発が、データセンターの設計と運用に大きな影響を与えるでしょう。
ライドンは、持続可能なデータセンター設計、エネルギー効率の高いAIワークロード、オープンなリソース共有に焦点を当てた業界全体の取り組みの重要性を強調しています。「これらは、よりグリーンな運用への重要なステップです」と彼は述べました。「AIを使用する企業は、環境への影響を減らすソリューションを作成するために、テクノロジー企業と協力する必要があります。協力して、AIをより持続可能な未来に向けて導くことができます」。












