Lãnh đạo tư tưởng
Sự thèm khát ngày càng tăng của Trí tuệ nhân tạo về năng lượng: Liệu các trung tâm dữ liệu đã sẵn sàng để theo kịp?
Khi trí tuệ nhân tạo (AI) tiến về phía trước, nhu cầu năng lượng của nó đang gây áp lực lên các trung tâm dữ liệu đến điểm giới hạn. Các công nghệ AI thế hệ tiếp theo như generative AI (genAI) không chỉ biến đổi các ngành công nghiệp – tiêu thụ năng lượng của chúng đang ảnh hưởng gần như mọi thành phần máy chủ dữ liệu – từ CPU và bộ nhớ đến gia tốc và mạng.
Các ứng dụng genAI, bao gồm Microsoft’s Copilot và OpenAI’s ChatGPT, đòi hỏi nhiều năng lượng hơn bao giờ hết. Đến năm 2027, việc đào tạo và duy trì các hệ thống AI này alone có thể tiêu thụ đủ điện để cung cấp năng lượng cho một quốc gia nhỏ trong một năm. Và xu hướng này không giảm tốc: trong thập kỷ qua, nhu cầu năng lượng cho các thành phần như CPU, bộ nhớ và mạng được ước tính sẽ tăng 160% vào năm 2030, theo một báo cáo của Goldman Sachs.
Sử dụng các mô hình ngôn ngữ lớn cũng tiêu thụ năng lượng. Ví dụ, một truy vấn ChatGPT tiêu thụ khoảng mười lần một tìm kiếm Google truyền thống. Với nhu cầu năng lượng khổng lồ của AI, liệu ngành công nghiệp có thể quản lý được sự phát triển nhanh chóng của mình một cách bền vững, hay nó sẽ góp phần vào tiêu thụ năng lượng toàn cầu? Nghiên cứu gần đây của McKinsey cho thấy rằng khoảng 70% nhu cầu tăng vọt trong thị trường trung tâm dữ liệu được dành cho các cơ sở được trang bị để xử lý các công việc AI tiên tiến. Sự thay đổi này đang thay đổi cơ bản cách các trung tâm dữ liệu được xây dựng và vận hành, khi chúng thích nghi với các yêu cầu độc đáo của các nhiệm vụ genAI mạnh mẽ này.
“Các trung tâm dữ liệu truyền thống thường hoạt động với thiết bị tiêu tốn năng lượng và có dung lượng cố định, khó thích nghi với các tải trọng biến động, dẫn đến lãng phí năng lượng đáng kể,” Mark Rydon, Chief Strategy Officer và đồng sáng lập của nền tảng tính toán đám mây phân tán Aethir, cho tôi biết. “Hoạt động tập trung thường tạo ra sự mất cân bằng giữa sự sẵn có của tài nguyên và nhu cầu tiêu thụ, dẫn ngành công nghiệp đến một điểm then chốt mà sự phát triển có thể rủi ro làm suy yếu các mục tiêu môi trường khi nhu cầu AI tăng trưởng.”
Các nhà lãnh đạo trong ngành đang giải quyết thách thức này một cách trực diện, đầu tư vào các thiết kế xanh hơn và kiến trúc tiết kiệm năng lượng cho các trung tâm dữ liệu. Các nỗ lực bao gồm việc áp dụng các nguồn năng lượng tái tạo để tạo ra các hệ thống làm mát hiệu quả hơn, có thể bù đắp cho lượng nhiệt khổng lồ được tạo ra bởi các công việc genAI.
Cách mạng hóa Trung tâm Dữ liệu cho Tương lai Xanh
Lenovo gần đây đã giới thiệu ThinkSystem N1380 Neptune, một bước nhảy vĩ đại trong công nghệ làm mát bằng chất lỏng cho các trung tâm dữ liệu. Công ty khẳng định rằng sự đổi mới này đã cho phép các tổ chức triển khai tính toán mạnh mẽ cho các công việc genAI với mức sử dụng năng lượng thấp hơn đáng kể – lên đến 40% ít năng lượng hơn trong các trung tâm dữ liệu. N1380 Neptune, tận dụng phần cứng mới nhất của NVIDIA, bao gồm GPU Blackwell và GB200, cho phép xử lý các mô hình AI có tham số nghìn tỷ trong một thiết lập compact. Lenovo cho biết rằng họ nhằm mục đích tạo ra con đường cho các trung tâm dữ liệu có thể hoạt động với giá đỡ máy chủ 100KW+ mà không cần điều hòa không khí chuyên dụng.
“Chúng tôi đã xác định một yêu cầu đáng kể từ khách hàng hiện tại của mình: các trung tâm dữ liệu đang tiêu thụ nhiều năng lượng hơn khi xử lý các công việc AI do các kiến trúc làm mát lỗi thời và các khuôn khổ cấu trúc truyền thống,” Robert Daigle, Giám đốc Toàn cầu về AI tại Lenovo, cho tôi biết. “Để hiểu rõ hơn về điều này, chúng tôi đã hợp tác với một khách hàng tính toán hiệu suất cao (HPC) để phân tích mức tiêu thụ năng lượng của họ, điều này đã dẫn chúng tôi đến kết luận rằng chúng tôi có thể giảm việc sử dụng năng lượng xuống 40%.” Ông thêm rằng công ty đã tính đến các yếu tố như công suất quạt và mức tiêu thụ năng lượng của các đơn vị làm mát, so sánh những yếu tố này với các hệ thống tiêu chuẩn có sẵn thông qua dịch vụ đánh giá trung tâm dữ liệu của Lenovo, để phát triển kiến trúc trung tâm dữ liệu mới này cùng với Nvidia.
Công ty tư vấn công nghệ thông tin của Vương quốc Anh AVEVA, cho biết họ đang sử dụng phân tích dự đoán để xác định các vấn đề với các máy nén, động cơ, thiết bị HVAC, xử lý không khí và nhiều hơn nữa trong các trung tâm dữ liệu.
“Chúng tôi đã phát hiện ra rằng chính việc đào tạo trước của AI tạo ra tiêu thụ năng lượng khổng lồ,” Jim Chappell, Head of AI & Advanced Analytics tại AVEVA, cho tôi biết. “Thông qua các hệ thống AI dự đoán của chúng tôi, chúng tôi nhằm mục đích tìm ra các vấn đề lâu trước khi bất kỳ hệ thống SCADA hoặc kiểm soát nào, cho phép các nhà vận hành trung tâm dữ liệu sửa chữa các vấn đề về thiết bị trước khi chúng trở thành vấn đề lớn. Ngoài ra, chúng tôi có một Trợ lý AI Vision tích hợp bản địa với các hệ thống kiểm soát của chúng tôi để giúp tìm các loại dị thường khác, bao gồm cả điểm nóng nhiệt khi sử dụng với máy ảnh hình ảnh nhiệt.”
Trong khi đó, tính toán phân tán cho đào tạo và phát triển AI thông qua GPU trên đám mây đang nổi lên như một giải pháp thay thế. Aethir’s Rydon giải thích rằng bằng cách phân phối các nhiệm vụ tính toán trên một mạng rộng lớn và thích nghi hơn, việc sử dụng năng lượng có thể được tối ưu hóa, bằng cách căn chỉnh nhu cầu tài nguyên với sự sẵn có – dẫn đến giảm đáng kể lãng phí từ đầu.
“Thay vì dựa vào các trung tâm dữ liệu lớn, tập trung, cơ sở hạ tầng ‘Edge’ của chúng tôi phân tán các nhiệm vụ tính toán đến các nút gần hơn với nguồn dữ liệu, điều này giảm đáng kể tải năng lượng cho việc truyền dữ liệu và giảm độ trễ,” Rydon nói. “Mạng lưới Aethir Edge giảm thiểu nhu cầu về các hệ thống làm mát năng lượng cao liên tục, vì các công việc được phân phối trên nhiều môi trường thay vì tập trung vào một vị trí, giúp tránh các hệ thống làm mát tiêu tốn năng lượng điển hình của các trung tâm dữ liệu tập trung.”
Tương tự, các công ty như Amazon và Google đang thử nghiệm với các nguồn năng lượng tái tạo để quản lý nhu cầu năng lượng tăng cao trong các trung tâm dữ liệu của họ. Microsoft, ví dụ, đang đầu tư mạnh mẽ vào các nguồn năng lượng tái tạo và công nghệ tăng hiệu suất để giảm tiêu thụ năng lượng của trung tâm dữ liệu. Google cũng đã thực hiện các bước để chuyển sang năng lượng không carbon và khám phá các hệ thống làm mát tối thiểu hóa việc sử dụng năng lượng trong các trung tâm dữ liệu. “Năng lượng hạt nhân có thể là con đường nhanh nhất đến các trung tâm dữ liệu không carbon. Các nhà cung cấp trung tâm dữ liệu lớn như Microsoft, Amazon và Google hiện đang đầu tư mạnh mẽ vào loại hình sản xuất năng lượng này cho tương lai. Với các lò phản ứng mô-đun nhỏ (SMRs), sự linh hoạt và thời gian sản xuất làm cho đây trở thành một lựa chọn khả thi hơn để đạt được Mục tiêu Không khí. thêm AVEVA’s Chappell.
Liệu Trí tuệ nhân tạo và Tính bền vững của Trung tâm Dữ liệu có thể cùng tồn tại?
Ugur Tigli, CTO tại nền tảng cơ sở hạ tầng AI MinIO, cho biết trong khi chúng ta hy vọng về một tương lai nơi AI có thể phát triển mà không có sự tăng vọt lớn trong tiêu thụ năng lượng, điều đó không thực tế trong ngắn hạn. “Tác động lâu dài khó dự đoán hơn,” ông cho tôi biết, “nhưng chúng ta sẽ thấy sự thay đổi trong lực lượng lao động, và AI sẽ giúp cải thiện tiêu thụ năng lượng trên toàn bảng. Tigli tin rằng khi hiệu suất năng lượng trở thành ưu tiên của thị trường, chúng ta sẽ thấy sự tăng trưởng trong tính toán cùng với sự giảm tiêu thụ năng lượng trong các lĩnh vực khác, đặc biệt là khi chúng trở nên hiệu quả hơn.
Ông cũng chỉ ra rằng có một sự quan tâm ngày càng tăng giữa người tiêu dùng về các giải pháp AI xanh. “Hãy tưởng tượng một ứng dụng AI hoạt động với hiệu suất 90% nhưng chỉ sử dụng một nửa năng lượng – đó là loại đổi mới có thể thực sự cất cánh,” ông thêm. Rõ ràng, tương lai của AI không chỉ là về sự đổi mới – nó cũng là về tính bền vững của trung tâm dữ liệu. Cho dù đó là thông qua việc phát triển phần cứng hiệu quả hơn hay thông minh hơn trong việc sử dụng tài nguyên, cách chúng ta quản lý tiêu thụ năng lượng của AI sẽ ảnh hưởng lớn đến thiết kế và hoạt động của các trung tâm dữ liệu.
Rydon nhấn mạnh tầm quan trọng của các sáng kiến ngành công nghiệp rộng lớn tập trung vào thiết kế trung tâm dữ liệu bền vững, công việc AI tiết kiệm năng lượng và chia sẻ tài nguyên mở. “Đây là những bước quan trọng hướng tới hoạt động xanh hơn,” ông nói. “Các doanh nghiệp sử dụng AI nên hợp tác với các công ty công nghệ để tạo ra các giải pháp giảm tác động môi trường. Bằng cách làm việc cùng nhau, chúng ta có thể dẫn dắt AI đến một tương lai bền vững hơn.”












