Лідери думок
Бум штучного інтелекту не вибухнув, але обчислення штучного інтелекту точно змінюються

Не надто бійтеся ведмедів штучного інтелекту. Вони гадають aload, якщо великий бум інвестицій у штучний інтелект вже відбувся і минув, якщо багато ринку збудження і витрат на потужні системи навчання штучного інтелекту, що працюють на основі величезної кількості високопродуктивних GPU, вже вичерпали себе, і якщо очікування від епохи штучного інтелекту слід радикально скоротити.
Але якщо ви прислухаєтеся до планів великих гіпerscalers, інвестиції у штучний інтелект живі і здорові. Meta, Amazon, Microsoft і Google всі нещодавно подвоїли свої інвестиції у технології штучного інтелекту. Їхній колективний внесок у 2025 рік становить понад 300 мільярдів доларів, згідно з недавньою статтею у Financial Times. Генеральний директор Microsoft Satya Nadella сказав, що Microsoft може витратити 80 мільярдів доларів тільки на штучний інтелект цього року. Засновник і генеральний директор Meta Mark Zuckerberg сказав на Facebook: “Ми плануємо інвестувати 60-65 мільярдів доларів у капітальні витрати цього року, а також значно збільшувати наші команди штучного інтелекту, і у нас є капітал, щоб продовжувати інвестувати у майбутні роки”.
Це не звучить як бум штучного інтелекту, який вибухнув, але навколо витрат на забезпечення застосунків штучного інтелекту зростає тривога. Після принаймні двох років, коли технологічні гіганти говорили, що бачать чіткий попит на більш потужні обчислювальні можливості для навчання великих моделей штучного інтелекту, 2025 рік розпочався з того, що ці самі компанії щодня викликаються на килим бізнес-ЗМІ за те, що вони створили так багато гіпу навколо штучного інтелекту.
Чому відбулася така раптова зміна від надії до занепокоєння? Відповідь частково полягає у швидкому зростанні нового застосунку штучного інтелекту з Китаю. Але щоб повністю зрозуміти, що насправді відбувається, і що це означає для інвестицій у штучний інтелект і технологічні програми у майбутніх роках, ми повинні визнати, що епоха штучного інтелекту переходить у нову фазу свого розвитку.
DeepSeeking правду
На сьогодні весь світ знає про DeepSeek, китайську компанію штучного інтелекту, яка говорить про те, як вона використала інференційні двигуни та статистичне міркування для навчання великих мовних моделей значно ефективніше та з меншими витратами, ніж інші компанії навчили свої моделі.
Зокрема, DeepSeek заявила, що її методи призвели до того, що їм потрібно було значно менше GPU (тільки 2048 GPU), а також менш потужні GPU (Nvidia H800) порівняно з сотнями тисяч преміум-GPU (наприклад, Nvidia H100), які деякі гіпerscale-компанії потребували для навчання своїх моделей. Заощадження коштів становили мільярди доларів, які OpenAI витратила на навчання ChatGPT, тоді як DeepSeek, як повідомляється, витратила лише 6,5 мільйона доларів на навчання своєї моделі R1.
Слід зазначити, що багато експертів сумніваються у заявах DeepSeek про витрати, але шкода вже була зроблена, оскільки новини про їхні методи спричинили глибокий спад у вартості акцій гіпerscalers і компаній, чиї GPU вони витратили мільярди на навчання своїх моделей штучного інтелекту.
Однак було втрачено кілька важливих моментів. По-перше, DeepSeek не “винаходила” новий спосіб роботи зі штучним інтелектом. По-друге, значна частина екосистеми штучного інтелекту вже давно знає про майбутню зміну у тому, як інвестиційні долари штучного інтелекту потрібно витрачати, і як сам штучний інтелект буде використовуватися у майбутніх роках.
Відносно методів DeepSeek, ідея використання інференційних двигунів штучного інтелекту та статистичного міркування не є новою. Використання статистичного міркування є одним з аспектів ширшої концепції інференційного моделювання, яке полягає у здатності штучного інтелекту робити висновки на основі розпізнавання закономірностей. Це суттєво подібно до людської здатності вивчати різні підходи до проблеми та порівнювати їх, щоб знайти найкраще можливе рішення. Інференційне моделювання можна використовувати сьогодні і не є виключним для китайського стартапу.
Тим часом екосистема штучного інтелекту вже тривалий час очікує фундаментальної зміни у тому, як ми працюємо зі штучним інтелектом і обчислювальними ресурсами, необхідними для цього. Перші роки епохи штучного інтелекту були присвячені великої роботі з навчання великих моделей штучного інтелекту на великих наборах даних, що вимагало багато обробки, складних розрахунків, коригування ваг і залежності від пам’яті. Після того, як моделі штучного інтелекту навчаються, все змінюється. Штучний інтелект може використовувати інференцію для застосування всього, що він навчився, до нових наборів даних, завдань і проблем. Інференція, як процес, менш обчислювально інтенсивний, ніж навчання, не вимагає такої кількості GPU або інших обчислювальних ресурсів.
Остаточна правда про DeepSeek полягає у тому, що хоча їхні методи не шокували більшості з нас у сфері штучного інтелекту так сильно, як це зробили для випадково зацікавлених інвесторів на ринку акцій, вони підкреслили один із способів, яким інференція буде核心 майбутньої фази розвитку штучного інтелекту.
Штучний інтелект: Наступне покоління
Обіцянка і потенціал штучного інтелекту не змінилися. Тривалі масштабні інвестиції великих гіпerscalers у штучний інтелект показують їхню віру у майбутню цінність, яку вони можуть розблокувати за допомогою штучного інтелекту, а також у способи, якими штучний інтелект може змінити роботу майже кожної галузі і життя майже всіх людей.
Що змінилося для цих гіпerscalers, так це те, як ці долари будуть витрачені. У перші роки епохи штучного інтелекту більшість інвестицій була необхідна для навчання. Якщо ви думаєте про штучний інтелект як про дитину, з розумом, який ще розвивається, ми витратили багато грошей на те, щоб відправити його у найкращі школи та університети. Тепер ця дитина – освічений дорослий, і їй потрібно знайти роботу, щоб забезпечувати себе. У реальному світі ми витратили багато грошей на навчання штучного інтелекту, і тепер нам потрібно побачити повернення цих інвестицій шляхом використання штучного інтелекту для генерації нових доходів.
Для досягнення цього повернення інвестицій штучний інтелект потребує стати більш ефективним і менш дорогим, щоб допомогти компаніям максимізувати його ринкову привабливість і його корисність для якомога більшої кількості застосунків. Найбільш прибуткові нові послуги будуть автономними, які не потребують людського моніторингу та управління.
Для багатьох компаній це означає використання ресурсо-еффективних технік обчислень штучного інтелекту, таких як інференційне моделювання, для швидкого і ефективного забезпечення автономної машини до машини комунікації. Наприклад, у галузі бездротового зв’язку штучний інтелект можна використовувати для автономного аналізу даних у реальному часі про використання спектру на мобільній мережі для оптимізації використання каналів і мінімізації інтерференції між користувачами, що в кінцевому підсумку дозволяє мобільному оператору підтримувати більш динамічне спільне використання спектру по всій своїй мережі. Такий більш ефективний, автономний штучний інтелект, що працює на основі машини до машини комунікації, визначатиме наступне покоління штучного інтелекту.
Як і у випадку з кожною іншою великою епохою обчислень, обчислення штучного інтелекту продовжують еволюціонувати. Якщо історія обчислень навчила нас чогось, то це те, що нова технологія завжди потребує багато попередніх інвестицій, але витрати будуть знижуватися, а ефективність буде зростати, оскільки ми починаємо використовувати покращені техніки та кращі практики для створення більш корисних і доступних продуктів та послуг, щоб привабити найбільші можливі ринки. Інновації завжди знають, як знайти свій шлях.
Сектор штучного інтелекту, можливо, недавно зазнав певної невдачі, якщо слухати ведмедів штучного інтелекту, але плани гіпerscalers щодо витрат цього року та зростаюче використання інференційних технік розповідають іншу історію: обчислення штучного інтелекту дійсно змінюються, але обіцянка штучного інтелекту повністю збережена.












