Зв'язатися з нами

Використання кремнію: як внутрішні чіпи формують майбутнє ШІ

Штучний Інтелект

Використання кремнію: як внутрішні чіпи формують майбутнє ШІ

mm

Штучний інтелект, як і будь-яке програмне забезпечення, спирається на два фундаментальні компоненти: програми штучного інтелекту, які часто називають моделями, і обчислювальне обладнання або мікросхеми, які керують цими програмами. Поки що основна увага при розробці штучного інтелекту була зосереджена на вдосконаленні моделей, тоді як апаратне забезпечення зазвичай розглядалося як стандартний компонент, що надається сторонніми постачальниками. Однак останнім часом цей підхід почав змінюватися. Великі фірми штучного інтелекту, такі як Google, Meta та Amazon, почали розробку власних мікросхем ШІ. Власна розробка мікросхем штучного інтелекту на замовлення відкриває нову еру розвитку штучного інтелекту. У цій статті буде досліджено причини цієї зміни в підході та висвітлено останні розробки в цій галузі, що розвивається.

Чому власна розробка мікросхем ШІ?

Перехід до власної розробки мікросхем штучного інтелекту зумовлений кількома важливими факторами, зокрема:  

Зростаючий попит на мікросхеми AI

Створення та використання моделей штучного інтелекту потребує значних обчислювальних ресурсів для ефективної обробки великих обсягів даних і створення точних прогнозів або розуміння. Традиційні комп’ютерні чіпи не в змозі впоратися з обчислювальними вимогами під час навчання на трильйонах точок даних. Це обмеження призвело до створення передових чіпів штучного інтелекту, спеціально розроблених для задоволення вимог високої продуктивності та ефективності сучасних програм ШІ. Оскільки дослідження та розробки ШІ продовжують зростати, зростає і попит на ці спеціалізовані чіпи.

Nvidia, лідер у виробництві передових чіпів штучного інтелекту і значно випереджає своїх конкурентів, стикається з проблемами, оскільки попит значно перевищує її виробничі потужності. Ця ситуація призвела до список очікування для NvidiaТермін дії чіпів ШІ продовжується до кількох місяців, і ця затримка продовжує зростати, оскільки попит на чіпи ШІ зростає. Крім того, ринок чіпів, який включає таких великих гравців, як Nvidia та Intel, стикається з проблемами у виробництві чіпів. Це питання походить від їхньої залежності від тайванського виробника TSMC для складання чіпів. Така залежність від одного виробника призводить до тривалого часу виготовлення цих передових мікросхем.

Зробити обчислення ШІ енергоефективними та стійкими

Сучасне покоління чіпів штучного інтелекту, призначених для важких обчислювальних завдань, має тенденцію до споживають багато енергіїі генерувати значну кількість тепла. Це призвело до значних екологічних наслідків для навчання та використання моделей ШІ. Дослідники OpenAI зауважте, що: з 2012 року обчислювальна потужність, необхідна для навчання передових моделей штучного інтелекту, подвоювалася кожні 3.4 місяця, що свідчить про те, що до 2040 року викиди від сектору інформаційно-комунікаційних технологій (ІКТ) можуть становити 14% глобальних викидів. Інше дослідження показав що навчання єдине масштабне мовна модель може викидати до 284,000 2 кг COXNUMX, що приблизно еквівалентно споживанню енергії п’ятьма автомобілями за весь термін служби. Більш того, це так оцінка що енергоспоживання центрів обробки даних буде зросте на 28 відсотки до 2030 року. Ці результати підкреслюють необхідність досягнення балансу між розробкою штучного інтелекту та екологічною відповідальністю. У відповідь на це багато компаній, які займаються штучним інтелектом, зараз інвестують у розробку більш енергоефективних чіпів, прагнучи зробити навчання та роботу штучного інтелекту більш стійкими та екологічно чистими.

Пошиття мікросхем для спеціальних завдань

Різні процеси ШІ мають різні обчислювальні вимоги. Наприклад, навчання моделей глибокого навчання вимагає значної обчислювальної потужності та високої пропускної здатності для обробки великих наборів даних і швидкого виконання складних обчислень. Чіпи, розроблені для навчання, оптимізовані для покращення цих операцій, підвищуючи швидкість і ефективність. З іншого боку, процес логічного висновку, коли модель застосовує отримані знання для прогнозування, потребує швидкої обробки з мінімальним споживанням енергії, особливо на периферійних пристроях, таких як смартфони та пристрої Інтернету речей. Мікросхеми для висновків розроблені для оптимізації продуктивності на ват, забезпечуючи оперативне реагування та економію заряду батареї. Ця спеціальна адаптація дизайну чіпа для завдань навчання та логічного висновку дозволяє точно налаштувати кожен чіп для призначеної ролі, підвищуючи продуктивність різних пристроїв і програм. Така спеціалізація не тільки підтримує більш надійні функції штучного інтелекту, але й сприяє більшій енергоефективності та економічній ефективності в цілому.

Зменшення фінансового тягаря

Фінансовий тягар обчислень для навчання моделей ШІ та операцій залишається значним. OpenAI, наприклад, використовує великий суперкомп’ютер, створений Microsoft як для навчання, так і для висновків з 2020 року. Навчання моделі GPT-12 коштувало OpenAI приблизно 3 мільйонів доларів, і витрати зросли до $ 100 мільйонів для навчання ГПТ-4. За словами а звітом За даними SemiAnalysis, OpenAI потребує приблизно 3,617 серверів HGX A100 із загальною кількістю графічних процесорів 28,936 0.36 для підтримки ChatGPT, в результаті чого середня вартість запиту становить приблизно XNUMX доларів США. Згідно з повідомленням Bloomberg, враховуючи ці високі витрати, Сем Альтман, генеральний директор OpenAI, шукає значні інвестиції для створення всесвітньої мережі виробництва мікросхем ШІ. звітом.

Використання контролю та інновацій

Чіпи сторонніх розробників часто мають обмеження. Компанії, які покладаються на ці чіпи, можуть виявитися обмеженими готовими рішеннями, які не повністю відповідають їхнім унікальним моделям штучного інтелекту або додаткам. Власна розробка чіпів дозволяє налаштовувати їх відповідно до конкретних випадків використання. Незалежно від того, чи йдеться про автономні автомобілі чи мобільні пристрої, керування апаратним забезпеченням дозволяє компаніям повністю використовувати свої алгоритми ШІ. Спеціальні мікросхеми можуть покращити виконання конкретних завдань, зменшити затримку та підвищити загальну продуктивність.

Останні досягнення в розробці мікросхем ШІ

У цьому розділі розповідається про останні успіхи Google, Meta та Amazon у створенні технології штучного інтелекту.

Процесори Axion від Google

Google неухильно просувається в області технології штучного інтелекту з моменту появи Блок обробки тензорів (TPU) у 2015 році. Спираючись на цю основу, Google нещодавно запустив Процесори Axion, її перші користувальницькі ЦП, спеціально розроблені для центрів обробки даних і робочих навантажень ШІ. Ці процесори базуються на архітектурі Arm, відомій своєю ефективністю та компактним дизайном. Процесори Axion спрямовані на підвищення ефективності навчання штучного інтелекту на основі центрального процесора та створення висновків, зберігаючи енергоефективність. Цей прогрес також знаменує значне підвищення продуктивності для різних робочих навантажень загального призначення, включаючи веб-сервери та сервери додатків, контейнерні мікросервіси, бази даних з відкритим кодом, кеші в пам’яті, механізми аналізу даних, обробку мультимедійних даних тощо.

MTIA від Meta

Meta просуває вперед технологію штучного інтелекту Meta Training and Inference Accelerator (MTIA). Цей інструмент призначений для підвищення ефективності процесів навчання та висновків, особливо для алгоритмів ранжирування та рекомендацій. Нещодавно Meta пояснила, що MTIA є ключовою частиною її стратегії зміцнення інфраструктури штучного інтелекту за межами графічних процесорів. Спочатку запланований на запуск у 2025 році, Meta вже запустила обидві версії MTIA у виробництво, демонструючи більш швидкі темпи у своїх планах розробки чіпів. У той час як MTIA зараз зосереджується на навчанні певних типів алгоритмів, Meta прагне розширити своє використання, включивши навчання для генеративного ШІ, як-от Моделі мови лами.

Амазонка Trainium і Inferentia

З моменту введення свого звичаю Нітро чіп У 2013 році Amazon значно розширив розробку чіпів AI. Нещодавно компанія представила два інноваційних чіпи AI, Трайніум та Висновок. Trainium спеціально розроблено для покращення навчання моделі штучного інтелекту та має бути включено в нього Ультракластери EC2. Ці кластери, здатні розміщувати до 100,000 XNUMX мікросхем, оптимізовані для навчання основних моделей і великих мовних моделей енергоефективним способом. З іншого боку, Inferentia розроблена для завдань логічного висновку, де активно застосовуються моделі штучного інтелекту, зосереджуючись на зменшенні затримки та витрат під час логічного висновку, щоб краще задовольнити потреби мільйонів користувачів, які взаємодіють із сервісами на основі штучного інтелекту.

Bottom Line

Рух до внутрішньої розробки нестандартних чіпів штучного інтелекту такими великими компаніями, як Google, Microsoft і Amazon, відображає стратегічний зсув, спрямований на задоволення зростаючих обчислювальних потреб технологій штучного інтелекту. Ця тенденція підкреслює необхідність рішень, спеціально розроблених для ефективної підтримки моделей ШІ, що відповідають унікальним вимогам цих передових систем. Оскільки попит на мікросхеми штучного інтелекту продовжує зростати, такі лідери галузі, як Nvidia, ймовірно, побачать значне підвищення ринкової оцінки, підкреслюючи життєво важливу роль, яку відіграють спеціальні мікросхеми в просуванні інновацій ШІ. Створюючи власні чіпи, ці технологічні гіганти не лише підвищують продуктивність і ефективність своїх систем штучного інтелекту, але й сприяють більш стійкому та економічно ефективному майбутньому. Ця еволюція встановлює нові стандарти в галузі, стимулює технологічний прогрес і конкурентну перевагу на глобальному ринку, що швидко змінюється.

Доктор Техсін Зія є штатним доцентом Університету COMSATS Ісламабад, має ступінь доктора філософії зі штучного інтелекту у Віденському технологічному університеті, Австрія. Спеціалізуючись на штучному інтелекті, машинному навчанні, науці про дані та комп’ютерному зорі, він зробив значний внесок публікаціями в авторитетних наукових журналах. Доктор Техсін також керував різними промисловими проектами як головний дослідник і працював консультантом зі штучного інтелекту.