Connect with us

Розростаючийся апетит штучного інтелекту до енергії: Чи готові центри даних впоратися з цим?

Лідери думок

Розростаючийся апетит штучного інтелекту до енергії: Чи готові центри даних впоратися з цим?

mm

Як штучний інтелект (AI) рухається вперед, його енергетичні вимоги ставлять центри даних на межу витривалості. Наступні технології AI, такі як генеративний AI (генAI), не тільки трансформують галузі, але й їх споживання енергії впливає майже на кожен компонент сервера даних – від ЦП та пам’яті до прискорювачів та мережевих засобів.

Застосування генAI, включаючи Microsoft’s Copilot та OpenAI’s ChatGPT, вимагають більше енергії, ніж будь-коли раніше. До 2027 року навчання та підтримка цих систем AI можуть спожити достатньо електроенергії, щоб забезпечити роботу маленької країни протягом усього року. А тренд не сповільнюється: за останні десять років енергоспоживання компонентів, таких як ЦП, пам’ять та мережеві засоби, зросте на 160% до 2030 року, згідно з звітом Goldman Sachs.

Використання великих мовних моделей також споживає енергію. Наприклад, запит до ChatGPT споживає близько десять разів більше енергії, ніж традиційний пошук Google. Ураховуючи масові енергетичні вимоги AI, чи зможе галузь управляти своїми швидкими досягненнями в sposób, що зберігає довкілля, чи вони ще більше внесуть свій внесок у глобальне споживання енергії? Недавнє дослідження McKinsey показує, що близько 70% зростаючого попиту на ринку центрів даних спрямовано на об’єкти, оснащені для обробки розширених завдань AI. Ця зміна фундаментально змінює спосіб будівництва та експлуатації центрів даних, оскільки вони адаптуються до унікальних вимог цих високопотужних завдань генAI.

“Традиційні центри даних часто працюють з застарілим, енергозатратним обладнанням та фіксованою потужністю, яка важко адаптується до коливань навантаження, що призводить до значних енергетичних втрат”, сказав мені Марк Райдон, головний стратегічний директор та співзасновник розподіленої платформи обчислювальних послуг Aethir. “Централізовані операції часто створюють дисбаланс між наявністю ресурсів та потребами у споживанні, що ставить галузь на критичний етап, де досягнення можуть ризикувати підірвати екологічні цілі, оскільки вимоги AI зростають”.

Лідери галузі зараз приступають до вирішення цього завдання, інвестуючи в більш екологічні конструкції та енергоефективні архітектури центрів даних. Зусилля варіюються від використання відновлюваних джерел енергії до створення більш ефективних систем охолодження, які можуть компенсувати величезну кількість тепла, генерованого завданнями генAI.

Революціонізуючи центри даних для більш екологічного майбутнього

Lenovo недавно представила ThinkSystem N1380 Neptune, значний крок вперед у технології рідкого охолодження для центрів даних. Компанія стверджує, що ця інновація вже дозволяє організаціям розгортати високопотужні обчислення для завдань генAI з значно нижчим енергоспоживанням – до 40% менше енергії у центрах даних. N1380 Neptune використовує останнє обладнання NVIDIA, включаючи Blackwell та GB200 GPU, що дозволяє обробляти трильйон-параметрові моделі AI у компактній установці. Lenovo заявила, що вона прагне створити центри даних, які можуть працювати з серверними стійками потужністю 100 КВт+ без потреби в окремих системах кондиціонування.

“Ми визначили значну потребу наших клієнтів: центри даних споживають більше енергії при обробці завдань AI через застарілі архітектури охолодження та традиційні конструктивні рамки”, сказав мені Роберт Дейгл, глобальний директор з питань AI у Lenovo. “Щоб краще зрозуміти це, ми співпрацювали з клієнтом високопродуктивних обчислень (HPC), щоб проаналізувати їх споживання енергії, що привело нас до висновку, що ми можемо зменшити енергоспоживання на 40%”. Він додав, що компанія врахувала такі фактори, як потужність вентилятора та споживання енергії систем охолодження, порівнюючи їх зі стандартними системами, доступними через службу оцінки центрів даних Lenovo, для розробки нової архітектури центрів даних у партнерстві з Nvidia.

Британська компанія з інформаційних технологій AVEVA заявила, що вона використовує передбачувальну аналітику для виявлення проблем з компресорами, двигунами, обладнанням HVAC, повітроводами та іншим.

“Ми виявили, що саме попереднє навчання генеративного AI споживає величезну кількість енергії”, сказав мені Джим Чаппелл, голова відділу AI та розширеної аналітики AVEVA. “Наші передбачувані системи AI-драйв допомагають виявити проблеми ще до того, як вони стануть серйозними, дозволяючи операторам центрів даних виправити проблеми з обладнанням до того, як вони стануть великими проблемами. Крім того, у нас є помічник Vision AI, який безпосередньо інтегрується з нашими системами контролю, щоб допомогти виявити інші види аномалій, включаючи гарячі точки температури при використанні з камерою тепловізійного зображення”.

Тим часом децентралізовані обчислення для навчання та розробки AI через GPU у хмарі стають альтернативою. Райдон з Aethir пояснив, що розподіляючи обчислювальні завдання по ширшій, більш адаптивній мережі, можна оптимізувати використання енергії, співміряючи需求 ресурсів з їх доступністю, що призводить до суттєвого зниження відходів з самого початку.

“Замість того, щоб покладатися на великі, централізовані центри даних, наша інфраструктура ‘Edge’ розподіляє обчислювальні завдання по вузлах ближче до джерела даних, що суттєво зменшує енергетичне навантаження на передачу даних та знижує затримку”, сказав Райдон. “Мережа Aethir Edge мінімізує потребу в постійному високопотужному охолодженні, оскільки завдання розподіляються по різних середовищах, а не концентруються в одному місці, що допомагає уникнути енергозатратних систем охолодження, типових для центральних центрів даних”.

Аналогічно, компанії, такі як Amazon і Google, експериментують з відновлюваними джерелами енергії для управління зростаючими енергетичними потребами в своїх центрах даних. Microsoft, наприклад, вкладає великі кошти в відновлювані джерела енергії та технології, що підвищують ефективність, для зниження споживання енергії в центрах даних. Google також зробила кроки для переходу на вуглецеву свободу та дослідження систем охолодження, які мінімізують споживання енергії в центрах даних. “Ядерна енергія, ймовірно, найшвидший шлях до вуглецево-чистих центрів даних. Великі постачальники центрів даних, такі як Microsoft, Amazon та Google, зараз активно інвестують у цей тип генерації енергії для майбутнього. З малими модульними реакторами (SMR) гнучкість та час виробництва роблять це ще більш життєздатним варіантом для досягнення нульового викиду”, додав Чаппелл з AVEVA.

Чи можуть співіснувати штучний інтелект та сталий розвиток центрів даних?

Угур Тіглі, технічний директор платформи інфраструктури AI MinIO, каже, що хоча ми сподіваємося на майбутнє, де AI може розвиватися без значного зростання споживання енергії, це просто не реально в короткій перспективі. “Довгострокові впливи складніше передбачити”, сказав мені Тіглі, “але ми побачимо зміну у складі робочої сили, і AI допоможе покращити споживання енергії в цілому”. Тіглі вважає, що оскільки енергоефективність стає ринковим пріоритетом, ми побачимо зростання обчислень поряд із зниженням споживання енергії в інших секторах, особливо коли вони стають більш ефективними.

Він також зазначив, що існує зростаючий інтерес серед споживачів до більш екологічних рішень AI. “Представіть собі додаток AI, який працює з ефективністю 90%, але використовує лише половину енергії – це саме той вид інновацій, який міг би справді злетіти”, додав він. Чисто зрозуміло, що майбутнє AI не тільки про інновації, але й про сталий розвиток центрів даних. Чи то через розробку більш ефективного обладнання, чи більш розумного використання ресурсів, те, як ми управляємо споживанням енергії AI, суттєво вплине на проектування та експлуатацію центрів даних.

Райдон підкреслив важливість галузевих ініціатив, які фокусуються на сталому проектуванні центрів даних, енергоефективних завданнях AI та відкритому обміні ресурсами. “Це важливі кроки до більш екологічних операцій”, сказав він. “Бізнеси, які використовують AI, повинні співпрацювати з технологічними компаніями для створення рішень, які зменшують екологічний вплив. Працюючи разом, ми можемо спрямувати AI до більш сталий майбутній”.

Віктор Дей - це технічний редактор і письменник, який висвітлює штучний інтелект, криптовалюту, науку про дані, метавсесвіт і кібербезпеку в сфері підприємства. Він має півдесятирічний досвід роботи в ЗМІ та штучному інтелекті у відомих медіа-виданнях, таких як VentureBeat, Metaverse Post, Observer та інших. Віктор керував студентськими засновниками в акселераторних програмах у провідних університетах, включаючи Оксфордський університет і Університет Південної Каліфорнії, і має ступінь магістра з науки про дані та аналітики.