Connect with us

Groq отримує $640 мільйонів: Новий претендент на ринку AI-чіпів

Фінансування

Groq отримує $640 мільйонів: Новий претендент на ринку AI-чіпів

mm

У значній події для галузі AI-чіпів стартап Groq залучив колосальні 640 мільйонів доларів у своєму останньому раунді фінансування. Це фінансове пожертвування, очолене інвестиційним гігантом BlackRock, збільшило оцінку Groq до вражаючих 2,8 мільярда доларів. Значні інвестиції свідчать про сильну довіру до потенціалу Groq змінити ринок AI-апаратного забезпечення, на якому зараз домінує індустріальний титан Nvidia.

Groq, заснована у 2016 році колишнім інженером Google Джонатаном Россом, тихо розробляла спеціалізовані чіпи, призначені для прискорення AI-навантажень, особливо в сфері обробки мови. Флагманський продукт компанії, Language Processing Unit (LPU), має на меті забезпечити безпрецедентну швидкість та ефективність для запуску великих мовних моделей та інших AI-додатків.

Оскільки попит на рішення зі штучним інтелектом продовжує стрімко зростати в усіх галузях, Groq позиціонує себе як серйозного конкурента для встановлених гравців. Фокус компанії на інференції – процесі запуску попередньо навчених AI-моделей – може надати їй унікальну перевагу на ринку, який потребує більш ефективних та економічно вигідних апаратних рішень для штучного інтелекту.

Зростання спеціалізованих AI-чіпів

Експоненційне зростання AI-додатків створило ненаситний апетит до обчислювальної потужності. Цей сплеск попиту виявив обмеження традиційних процесорів у обробці складних та об’ємних навантажень, пов’язаних зі штучним інтелектом.

Універсальні CPU та GPU, хоч і універсальні, часто не встигають за специфічними вимогами AI-алгоритмів, особливо коли йдеться про швидкість обробки та енергоефективність. Ця прогалина проклала шлях для нового покоління спеціалізованих AI-чіпів, розроблених з нуля для оптимізації AI-навантажень.

Обмеження традиційних процесорів стають особливо очевидними при роботі з великими мовними моделями та іншими AI-додатками, які вимагають обробки величезних обсягів даних у реальному часі. Ці навантаження вимагають не лише сили обчислень, але й здатності ефективно обробляти паралельні завдання при мінімальному споживанні енергії.

Технологічна перевага Groq

В основі пропозиції Groq лежить її інноваційний LPU. На відміну від універсальних процесорів, LPU спеціально розроблені для досконалої роботи з типами обчислень, найпоширенішими в AI-навантаженнях, особливо тими, що пов’язані з обробкою природної мови (NLP).

Архітектура LPU розроблена для мінімізації накладних витрат, пов’язаних з управлінням кількома потоками обробки, що є поширеним вузьким місцем у традиційних конструкціях чіпів. Спрощуючи виконання AI-моделей, Groq стверджує, що її LPU можуть досягати значно вищої швидкості обробки порівняно зі звичайним апаратним забезпеченням.

За словами Groq, її LPU можуть обробляти сотні токенів на секунду навіть під час запуску великих мовних моделей, таких як Meta Llama 2 70B. Це означає здатність генерувати сотні слів на секунду – рівень продуктивності, який може стати вирішальним для AI-додатків реального часу.

Більше того, Groq стверджує, що її чіпи пропонують значне покращення енергоефективності. Зменшуючи споживання енергії, яке зазвичай пов’язане з AI-обробкою, LPU потенційно можуть знизити операційні витрати центрів обробки даних та інших середовищ з інтенсивними AI-обчисленнями.

Хоці ці заяви, безумовно, вражають, важливо зазначити, що Nvidia та інші конкуренти також зробили значні кроки у продуктивності AI-чіпів. Справжнє випробування для Groq полягатиме в демонстрації стабільних переваг у продуктивності в реальних умовах для широкого спектру AI-додатків та навантажень.

Орієнтація на корпоративний та державний сектори

Усвідомлюючи величезний потенціал на корпоративних та державних ринках, Groq розробила багатогранну стратегію, щоб отримати опору в цих секторах. Підхід компанії зосереджений на пропозиції високопродуктивних, енергоефективних рішень, які можуть безперешкодно інтегруватися в існуючу інфраструктуру центрів обробки даних.

Groq запустила GroqCloud, платформу для розробників, яка надає доступ до популярних відкритих AI-моделей, оптимізованих для її архітектури LPU. Ця платформа слугує як демонстрацією технології Groq, так і точкою входу з низьким бар’єром для потенційних клієнтів, щоб вони на власному досвіді відчули переваги продуктивності.

Стартап також робить стратегічні кроки для задоволення конкретних потреб державних установ та суверенних держав. Придбавши Definitive Intelligence та сформувавши Groq Systems, компанія позиціонувала себе для пропозиції індивідуальних рішень для організацій, які бажають покращити свої AI-можливості, зберігаючи контроль над конфіденційними даними та інфраструктурою.

Ключові партнерства та співпраця

Зусилля Groq щодо проникнення на ринок підкріплені низкою стратегічних партнерств та співпраць. Помітним альянсом є співпраця з виробничим бізнесом Samsung, який виготовлятиме LPU наступного покоління Groq за техпроцесом 4 нм. Це партнерство не лише забезпечує доступ до передових виробничих процесів, але й підвищує довіру до технології Groq.

У державному секторі Groq уклала партнерство з Carahsoft, добре відомим IT-підрядником. Ця співпраця відкриває двері для клієнтів державного сектора через велику мережу партнерів-реселлерів Carahsoft, потенційно прискорюючи впровадження Groq у державних установах.

Компанія також просунулася на міжнародному рівні, підписавши лист про наміри встановити десятки тисяч LPU в норвезькому центрі обробки даних, яким керує Earth Wind & Power. Крім того, Groq співпрацює з саудівською компанією Aramco Digital для інтеграції LPU у майбутні центри обробки даних на Близькому Сході, демонструючи свої глобальні амбіції.

Конкурентне середовище

Nvidia наразі є беззаперечним лідером на ринку AI-чіпів, контролюючи приблизно від 70% до 95% ринку. GPU компанії стали де-факто стандартом для навчання та розгортання великих AI-моделей завдяки їх універсальності та надійній програмній екосистемі.

Домінування Nvidia ще більше посилюється її агресивним циклом розробки, з планами випускати нові архітектури AI-чіпів щорічно. Компанія також досліджує послуги з розробки індивідуальних чіпів для хмарних провайдерів, демонструючи свою рішучість зберегти лідируючу позицію на ринку.

Хоча Nvidia є явним фаворитом, ринок AI-чіпів стає все більш переповненим як встановленими технологічними гігантами, так і амбітними стартапами:

  1. Хмарні провайдери: Amazon, Google та Microsoft розробляють власні AI-чіпи для оптимізації продуктивності та зниження витрат у своїх хмарних пропозиціях.
  2. Важкі ваги напівпровідникової галузі: Intel, AMD та Arm посилюють свої зусилля щодо AI-чіпів, використовуючи свій величезний досвід у проектуванні та виробництві чіпів.
  3. Стартапи: Такі компанії, як D-Matrix, Etched та інші, з’являються зі спеціалізованими конструкціями AI-чіпів, кожна з яких націлена на конкретні ніші в межах ширшого ринку AI-апаратного забезпечення.

Це різноманітне конкурентне середовище підкреслює величезний потенціал та високі ставки в галузі AI-чіпів.

Виклики та можливості для Groq

Оскільки Groq прагне кинути виклик домінуванню Nvidia, вона стикається зі значними перешкодами у масштабуванні виробництва та технологій:

  1. Виробничі потужності: Забезпечення достатніх виробничих потужностей для задоволення потенційного попиту буде вирішальним, особливо з огляду на триваючу глобальну нестачу чіпів.
  2. Технологічний прогрес: Groq повинна продовжувати інновації, щоб випереджати швидко еволюціонуючі вимоги до AI-апаратного забезпечення.
  3. Програмна екосистема: Розробка надійного програмного стеку та інструментів для підтримки її апаратного забезпечення буде необхідною для широкого впровадження.

Майбутнє інновацій у AI-чіпах

Постійні інновації в AI-чіпах, очолювані такими компаніями, як Groq, мають потенціал значно прискорити розвиток та впровадження штучного інтелекту:

  1. Швидше навчання та інференція: Потужніші та ефективніші чіпи можуть різко скоротити час та ресурси, необхідні для навчання та запуску AI-моделей.
  2. Периферійний AI: Спеціалізовані чіпи могли б забезпечити більш складні AI-додатки на периферійних пристроях, розширюючи охоплення AI-технологій.
  3. Енергоефективність: Досягнення в проектуванні чіпів можуть призвести до більш сталого AI-інфраструктури, зменшуючи вплив на навколишнє середовище великомасштабних AI-розгортань.

Оскільки революція AI-чіпів продовжує розгортатися, інновації, запроваджені Groq та її конкурентами, відіграватимуть вирішальну роль у визначенні темпів та напрямку прогресу штучного інтелекту. Хоча викликів багато, потенційні винагороди – як для окремих компаній, так і для ширшої галузі штучного інтелекту – є величезними.

Алекс МакФарланд — журналіст і письменник у сфері штучного інтелекту, який досліджує найновіші досягнення в галузі. Він співпрацював з численними стартапами та виданнями, що спеціалізуються на ШІ, по всьому світу.