Pemimpin pemikiran
Nafsu AI yang Meningkat terhadap Daya: Apakah Pusat Data Siap untuk Mengimbanginya?
Ketika kecerdasan buatan (AI) melaju ke depan, kebutuhan energinya mengarah pada titik patah pusat data. Teknologi AI generatif (genAI) seperti generative AI (genAI) tidak hanya mengubah industri – konsumsi energinya memengaruhi hampir setiap komponen server data – dari CPU dan memori ke akselerator dan jaringan.
Aplikasi genAI, termasuk Microsoft’s Copilot dan OpenAI’s ChatGPT, menuntut lebih banyak energi daripada sebelumnya. Pada tahun 2027, pelatihan dan pemeliharaan sistem AI ini saja bisa mengonsumsi cukup listrik untuk memasok sebuah negara kecil selama satu tahun. Dan tren ini tidak melambat: selama dekade terakhir, permintaan daya untuk komponen seperti CPU, memori, dan jaringan diperkirakan tumbuh 160% pada tahun 2030, menurut laporan Goldman Sachs.
Penggunaan model bahasa besar juga mengonsumsi energi. Misalnya, sebuah query ChatGPT mengonsumsi sekitar sepuluh kali lipat dari pencarian Google tradisional. Dengan kebutuhan daya AI yang besar, dapatkah kemajuan industri yang cepat dikelola secara berkelanjutan, atau akan mereka menyumbang lebih lanjut pada konsumsi energi global? Penelitian terbaru McKinsey menunjukkan bahwa sekitar 70% dari permintaan yang meningkat di pasar pusat data diarahkan pada fasilitas yang dilengkapi untuk menangani beban kerja AI yang maju. Perubahan ini secara mendasar mengubah cara pusat data dibangun dan dioperasikan, karena mereka beradaptasi dengan kebutuhan unik dari tugas genAI yang berdaya tinggi.
“Pusat data tradisional sering beroperasi dengan peralatan yang sudah tua dan boros energi serta kapasitas tetap yang sulit beradaptasi dengan beban kerja yang fluktuatif, menyebabkan pemborosan energi yang signifikan,” Mark Rydon, Chief Strategy Officer dan co-founder dari platform komputasi awan terdistribusi Aethir, mengatakan kepada saya. “Operasi terpusat sering menciptakan ketidakseimbangan antara ketersediaan sumber daya dan kebutuhan konsumsi, membawa industri ke titik kritis di mana kemajuan bisa mengancam tujuan lingkungan karena tuntutan AI yang tumbuh.”
Pemimpin industri sekarang menghadapi tantangan ini secara langsung, berinvestasi pada desain yang lebih hijau dan arsitektur yang hemat energi untuk pusat data. Upaya mulai dari mengadopsi sumber energi terbarukan hingga menciptakan sistem pendingin yang lebih efisien yang dapat mengimbangi jumlah panas yang besar yang dihasilkan oleh beban kerja genAI.
Merevolusi Pusat Data untuk Masa Depan yang Lebih Hijau
Lenovo baru-baru ini memperkenalkan ThinkSystem N1380 Neptune, sebuah lompatan besar dalam teknologi pendingin cair untuk pusat data. Perusahaan ini menyatakan bahwa inovasi ini sudah memungkinkan organisasi untuk menerapkan komputasi berdaya tinggi untuk beban kerja genAI dengan penggunaan energi yang jauh lebih rendah – hingga 40% lebih sedikit daya di pusat data. N1380 Neptune, memanfaatkan perangkat keras terbaru NVIDIA, termasuk GPU Blackwell dan GB200, memungkinkan penanganan model AI trillion-parameter dalam konfigurasi yang kompak. Lenovo mengatakan bahwa mereka bertujuan untuk membuka jalan bagi pusat data yang dapat beroperasi dengan rak server 100KW+ tanpa memerlukan pendingin udara khusus.
“Kami mengidentifikasi kebutuhan signifikan dari konsumen kami saat ini: pusat data mengonsumsi lebih banyak daya saat menangani beban kerja AI karena arsitektur pendingin yang sudah ketinggalan zaman dan kerangka struktural tradisional,” Robert Daigle, Global Director of AI at Lenovo, mengatakan kepada saya. “Untuk memahami ini lebih baik, kami berkolaborasi dengan pelanggan komputasi kinerja tinggi (HPC) untuk menganalisis konsumsi daya mereka, yang membawa kita ke kesimpulan bahwa kita bisa mengurangi penggunaan energi hingga 40%.” Ia menambahkan bahwa perusahaan tersebut mempertimbangkan faktor-faktor seperti daya kipas dan konsumsi daya unit pendingin, membandingkannya dengan sistem standar yang tersedia melalui layanan penilaian pusat data Lenovo, untuk mengembangkan arsitektur pusat data baru dalam kemitraan dengan Nvidia.
Perusahaan konsultasi teknologi informasi asal Inggris AVEVA, mengatakan bahwa mereka menggunakan analitik prediktif untuk mengidentifikasi masalah dengan kompresor pusat data, motor, peralatan HVAC, handler udara, dan lain-lain.
“Kami menemukan bahwa itu adalah pra-pelatihan AI generatif yang mengonsumsi daya yang besar,” Jim Chappell, Kepala AI & Analitik Lanjutan AVEVA, mengatakan kepada saya. “Melalui sistem AI-prediktif kami, kami bertujuan untuk menemukan masalah jauh sebelum sistem SCADA atau kontrol, memungkinkan operator pusat data untuk memperbaiki masalah peralatan sebelum mereka menjadi masalah besar. Selain itu, kami memiliki Asisten Visi AI yang terintegrasi asli dengan sistem kontrol kami untuk membantu menemukan anomali lainnya, termasuk hotspot suhu ketika digunakan dengan kamera pemetaan panas.”
Sementara itu, komputasi terdesentralisasi untuk pelatihan dan pengembangan AI melalui GPU melalui awan muncul sebagai alternatif. Rydon dari Aethir menjelaskan bahwa dengan mendistribusikan tugas komputasi ke jaringan yang lebih luas dan lebih adaptif, penggunaan energi dapat dioptimalkan, dengan menyelaraskan permintaan sumber daya dengan ketersediaan—mengarah pada pengurangan limbah yang substansial dari awal.
“Bukannya bergantung pada pusat data besar yang terpusat, infrastruktur ‘Edge’ kami mendistribusikan tugas komputasi ke node yang lebih dekat dengan sumber data, yang secara drastis mengurangi beban energi untuk transfer data dan mengurangi latensi,” kata Rydon. “Jaringan Aethir Edge meminimalkan kebutuhan akan sistem pendingin berdaya tinggi yang konstan, karena beban kerja didistribusikan di berbagai lingkungan daripada terkonsentrasi di satu lokasi, membantu menghindari sistem pendingin yang boros energi yang khas dari pusat data terpusat.”
Demikian pula, perusahaan seperti Amazon dan Google bereksperimen dengan sumber energi terbarukan untuk mengelola kebutuhan daya yang meningkat di pusat data mereka. Microsoft, misalnya, berinvestasi besar-besaran dalam sumber energi terbarukan dan teknologi peningkat efisiensi untuk mengurangi konsumsi energi pusat datanya. Google juga mengambil langkah untuk beralih ke energi bebas karbon dan menjelajahi sistem pendingin yang meminimalkan penggunaan daya di pusat data. “Energi nuklir kemungkinan adalah jalur tercepat menuju pusat data bebas karbon. Penyedia pusat data besar seperti Microsoft, Amazon, dan Google sekarang berinvestasi besar-besaran dalam jenis pembangkit listrik ini untuk masa depan. Dengan reaktor modular kecil (SMRs), fleksibilitas dan waktu produksi membuat ini menjadi pilihan yang lebih layak untuk mencapai Nol Bersih,” tambah Chappell dari AVEVA.
Apakah AI dan Keberlanjutan Pusat Data Dapat Bersamaan?
Ugur Tigli, CTO di platform infrastruktur AI MinIO, mengatakan bahwa sementara kita berharap pada masa depan di mana AI dapat maju tanpa lonjakan besar dalam konsumsi energi, itu tidak realistis dalam jangka pendek. “Dampak jangka panjang lebih sulit diprediksi,” ia mengatakan kepada saya, “tetapi kita akan melihat pergeseran dalam tenaga kerja, dan AI akan membantu meningkatkan konsumsi energi di seluruh papan. ” Tigli percaya bahwa ketika efisiensi energi menjadi prioritas pasar, kita akan melihat pertumbuhan komputasi bersamaan dengan penurunan penggunaan energi di sektor lain, terutama karena mereka menjadi lebih efisien.
Ia juga menunjukkan bahwa ada minat yang tumbuh di antara konsumen untuk solusi AI yang lebih hijau. “Bayangkan sebuah aplikasi AI yang berkinerja 90% efisiensi tetapi hanya menggunakan setengah daya—itu adalah jenis inovasi yang bisa benar-benar lepas landas,” ia tambahkan. Jelas bahwa masa depan AI bukan hanya tentang inovasi—juga tentang keberlanjutan pusat data. Apakah itu melalui pengembangan perangkat keras yang lebih efisien atau cara yang lebih cerdas untuk menggunakan sumber daya, bagaimana kita mengelola konsumsi energi AI akan sangat memengaruhi desain dan operasi pusat data.
Rydon menekankan pentingnya inisiatif industri-luas yang fokus pada desain pusat data yang berkelanjutan, beban kerja AI yang hemat energi, dan berbagi sumber daya terbuka. “Ini adalah langkah-langkah penting menuju operasi yang lebih hijau,” ia katakan. “Bisnis yang menggunakan AI harus bermitra dengan perusahaan teknologi untuk menciptakan solusi yang mengurangi dampak lingkungan. Dengan bekerja sama, kita dapat mengarahkan AI menuju masa depan yang lebih berkelanjutan.”












