заглушки Штучний інтелект та доповнена реальність стимулюють попит на дані – апаратне забезпечення з відкритим вихідним кодом справляється з цим викликом - Unite.AI
Зв'язатися з нами

Лідери думок

ШІ та AR стимулюють попит на дані – апаратне забезпечення з відкритим вихідним кодом справляється з цим викликом

mm

опублікований

 on

Дані є джерелом життя цифрової економіки, і в міру появи та розвитку нових технологій попит на більш високі швидкості передачі даних, менші затримки та вищу обчислювальну потужність у центрах обробки даних зростає в геометричній прогресії. Нові технології розширюють межі передачі та обробки даних, і впровадження технологій з відкритим кодом може допомогти операторам центрів обробки даних максимально збільшити поточні операції та підготуватися до майбутнього. Нижче наведено кілька прикладів того, як технологія стимулює попит на високу обчислювальну потужність, а також те, як технології з відкритим кодом, спільноти та стандарти допомагають задовольнити цей попит у масштабі стабільним способом.

Штучний інтелект і машинне навчання

Технології штучного інтелекту (AI) і машинного навчання (ML) революціонізують різні сфери, такі як обробка природного мови, комп'ютерне бачення, розпізнавання мови, системи рекомендацій і безпілотні автомобілі. AI та ML дозволяють комп’ютерам навчатися на основі даних і виконувати завдання, які зазвичай потребують людського інтелекту.

Однак ШІ та машинне навчання також вимагають величезних обсягів даних і обчислювальної потужності для навчання та запуску складних моделей і алгоритмів. Наприклад, GPT-3, одна з найдосконаліших моделей природної мови у світі, має 175 мільярдів параметрів і була навчена на 45 терабайтах текстових даних. Для ефективної обробки таких великомасштабних наборів даних і моделей додаткам AI і ML потрібні високопродуктивні обчислювальні системи (HPC), які можуть забезпечити високу швидкість передачі даних, низькі затримки та високу обчислювальну потужність.

Однією з нових тенденцій у HPC є використання спеціалізованих процесорів, таких як GPU або TPU, які оптимізовані для паралельної обробки та матричних операцій, які є звичайними для робочих навантажень AI та ML. Наприклад, NVIDIA Grace CPU — це новий процесор, розроблений спеціально для HPC-додатків, який використовує технологію NVIDIA GPU, щоб забезпечити до 10 разів більшу продуктивність, ніж поточні процесори x86. Grace CPU також підтримує швидкі з’єднання, такі як NVLink, які забезпечують високу швидкість передачі даних між ЦП і ГП.

Розширена реальність та віртуальна реальність

Apple Vision Pro викликав припливні хвилі під час своєї презентації. Доповнена реальність (AR) і віртуальна реальність (VR) є двома найбільш захоплюючими та інтерактивними технологіями, які трансформують різні галузі, такі як розваги, освіта, охорона здоров’я та виробництво. AR накладає цифрову інформацію на реальний світ, тоді як VR створює повністю симульоване середовище, яке користувачі можуть відчувати через гарнітуру.

Однак ці технології також створюють значні проблеми для передачі та обробки даних. Через нещодавній випуск Apple Vision Pro все ще невідомо. Інші гарнітури віртуальної реальності доступні вже деякий час, тому ми можемо зробити деякі припущення. Наприклад, такі гарнітури віртуальної реальності, як Oculus Quest 2, потребують високошвидкісного підключення до ПК або хмарного сервера для потокової передачі високоякісного відео- та аудіоконтенту, а також для відстеження та введення даних із гарнітури та контролерів. Бітрейт відео, тобто кількість даних, що передаються за секунду, залежить від швидкості, з якою GPU може кодувати сигнал на стороні ПК або сервера, і швидкості, з якою процесор Quest 2 може декодувати сигнал на стороні гарнітури. .

Відповідно до Oculus, рекомендований бітрейт для потокової передачі VR становить від 150 Мбіт/с до 500 Мбіт/с залежно від роздільної здатності та частоти кадрів. Це означає, що потокове передавання даних VR потребує набагато вищої швидкості передачі даних, ніж інші дії в Інтернеті, такі як перегляд веб-сторінок або потокове передавання музики. Крім того, потокове передавання VR також вимагає низької затримки, тобто часу, необхідного для проходження сигналу від однієї точки до іншої. Висока затримка може спричинити затримку або тремтіння гри, що може зіпсувати занурення та спричинити заколисування.

Затримка залежить від кількох факторів, таких як швидкість мережі, відстань між пристроями та алгоритми кодування та декодування. Відповідно до Oculus, ідеальна затримка для потокової передачі VR становить менше 20 мілісекунд. Однак досягти такого рівня продуктивності непросто, особливо через бездротові з’єднання, такі як Wi-Fi або 5G.

Технології з відкритим вихідним кодом для оптимізації ЦОД

Оскільки нові технології викликають попит на більш високі швидкості передачі даних, менші затримки та більшу обчислювальну потужність у центрах обробки даних, оператори центрів обробки даних стикаються з декількома проблемами, такими як збільшення енергоспоживання, нові вимоги до охолодження, використання простору, експлуатаційні витрати та швидкий темп апаратне забезпечення та оновлення. Щоб вирішити ці проблеми, операторам центрів обробки даних необхідно оптимізувати свою поточну інфраструктуру та прийняти нові стандарти та технології, які можуть підвищити ефективність і масштабованість.

Це мета проекту Open19, a Альянс сталої та масштабованої інфраструктури ініціатива, яка тепер є частиною Linux Foundation. Проект Open19 є відкритим стандартом для апаратного забезпечення центру обробки даних, який базується на загальних форм-факторах і забезпечує високоефективний розподіл електроенергії наступного покоління, компоненти для повторного використання та можливості для нових високошвидкісних з’єднань. Місія SSIA та відкриті стандарти, створені в рамках проекту Open19, відповідають ширшому прагненню галузі до ефективності, масштабованості та стійкості для інфраструктури, яка забезпечує наше цифрове життя та спільноти. The Відкрийте Compute проекту це ще одна спроба ефективної підтримки зростаючих вимог до обчислювальної інфраструктури. Цей проект також сприяє співпраці галузевих партнерів, орієнтованій на громаду, для розробки рішень для центрів обробки даних, зосереджуючись на розмірах 21-дюймових серверних стійок, які зазвичай використовуються великими колонами та гіперскейлерами. Сфера дії OCP також поширюється на центр обробки даних, а також на внутрішні ІТ-компоненти серверів.

Висновок

Нові технології підвищують попит на більш високі швидкості передачі даних, менші затримки та вищу обчислювальну потужність у центрах обробки даних, тоді як громади, уряди та компанії зосереджуються на управлінні ресурсами та підвищенні занепокоєння щодо сталого розвитку, пов’язаного з використанням води, керування енергоспоживанням та іншими аспектами технології, що містять багато вуглецю. створення, використання та розгортання. Застосування технологій з відкритим кодом, розроблених на форумах, керованих спільнотою, як-от SSIA та Linux Foundation, може допомогти операторам центрів обробки даних максимізувати поточні операції та підготуватися до більш стійкого майбутнього, оскільки вони відповідають вимогам цих захоплюючих нових програм.

Зак Сміт, член правління спільноти, Альянс SSI.

Зак був постійним інноватором у галузі хмарних технологій і центрів обробки даних уже понад 20 років. Нещодавно Зак очолював частину цифрової інфраструктури Equinix після того, як компанія придбала Packet, компанію, співзасновником якої він був у 2014 році для надання можливостей автоматизованих центрів обробки даних провідним цифровим компаніям. До Packet Зак був першим членом Voxel, хмарної компанії на основі Linux, придбаної Internap у 2011 році.