Connect with us

Liderzy opinii

Boom AI nie wybuchł, ale obliczenia AI zdecydowanie się zmieniają

mm

Nie bój się zbyt bardzo AI niedźwiedzi. Oni zastanawiają się głośno, czy duży boom w inwestycjach AI już przyjdzie i pójdzie, czy wiele ekscytacji rynku i wydatków na ogromne systemy szkoleniowe AI zasilane przez wiele wysokowydajnych GPU już się wyczerpało, i czy oczekiwania dotyczące ery AI powinny być radykalnie zmniejszone.

Ale jeśli przyjrzysz się bliżej planom głównych hyperscalerów, inwestycje w AI są żywe i zdrowe. Meta, Amazon, Microsoft i Google wszystkie niedawno podwoiły inwestycje w technologie AI. Ich zbiorowy zobowiązanie na 2025 rok wynosi ponad 300 miliardów dolarów, według niedawnego artykułu w Financial Times. CEO Microsoftu Satya Nadella powiedział, że Microsoft może wydać 80 miliardów dolarów samych na AI w tym roku. Założyciel i CEO Meta Mark Zuckerberg powiedział na Facebooku: „Planujemy zainwestować 60-65 miliardów dolarów w capex w tym roku, a także znacznie zwiększyć nasze zespoły AI, i mamy kapitał, aby kontynuować inwestowanie w nadchodzących latach”.

To nie jest dźwięk boomu AI, który wybucha, ale jest rosnące niepokoje wokół tego, ile pieniędzy jest wydawanych na umożliwienie aplikacji AI. Po co najmniej dwóch latach, gdy giganci technologiczni mówili, że widzą wyraźne zapotrzebowanie na więcej mocy obliczeniowej, aby pomóc w szkoleniu ogromnych modeli AI, 2025 rok rozpoczął się od tego, że te same firmy są codziennie wzywane przez media biznesowe do odpowiedzi za budowanie tak dużej hossy AI.

Dlaczego nastąpiła taka nagła zmiana od nadziei do niepokoju? Odpowiedź można znaleźć częściowo w gwałtownym wzroście nowej aplikacji AI z Chin. Ale aby w pełni zrozumieć, co naprawdę się dzieje, i co to oznacza dla inwestycji w AI i programów technologicznych w nadchodzących latach, musimy uznać, że era AI przechodzi w nową fazę swojego rozwoju.

Szukanie prawdy

Do tej pory świat wie wszystko o DeepSeek, chińskiej firmie AI, która chwali się tym, że używa silników inferencyjnych i wnioskowania statystycznego do szkolenia dużych modeli językowych znacznie bardziej wydajnie i z mniejszymi kosztami niż inne firmy szkoliły swoje modele.

Konkretnie, DeepSeek twierdzi, że jego techniki spowodowały, że wymaga znacznie mniej GPU (tylko 2048 GPU), a także mniej wydajnych GPU (Nvidia H800) niż setki tysięcy wysokowydajnych GPU (myśl o Nvidia H100), których niektóre firmy hyperscale wymagały do szkolenia swoich modeli. Jeśli chodzi o oszczędności kosztów, podczas gdy OpenAI wydał miliardy dolarów na szkolenie ChatGPT, DeepSeek rzekomo wydał tylko 6,5 miliona dolarów na szkolenie swojego modelu R1.

Należy zauważyć, że wielu ekspertów kwestionowało twierdzenia DeepSeek dotyczące wydatków, ale szkoda już została wyrządzona, ponieważ wiadomości o ich odmiennych metodach spowodowały głęboki spadek wartości akcji hyperscalerów i firm, których GPU wydali miliardy na szkolenie swoich modeli AI.

Jednak kilka ważnych punktów zostało utraconych w chaosie. Jednym z nich było zrozumienie, że DeepSeek nie „wynalazł” nowy sposób pracy z AI. Drugim jest to, że wiele ekosystemu AI było świadome nadchodzącej zmiany w tym, jak inwestycje w AI muszą być wydawane, i jak AI będzie wykorzystywane w nadchodzących latach.

Jeśli chodzi o metody DeepSeek, pomysł użycia silników inferencyjnych AI i wnioskowania statystycznego nie jest niczym nowym. Użycie wnioskowania statystycznego jest jednym aspektem szerszego pojęcia wnioskowania modelu, które obejmuje możliwość AI do wyciągania wniosków na podstawie rozpoznawania wzorców. Jest to podstawowo podobne do ludzkiej zdolności do uczenia się różnych sposobów podejścia do problemu i porównywania ich, aby znaleźć najlepsze możliwe rozwiązanie. Wnioskowanie oparte na modelu może być używane dzisiaj i nie jest wyłączne dla chińskiego startupu.

Tymczasem ekosystem AI od jakiegoś czasu już przewidywał fundamentalną zmianę w tym, jak pracujemy z AI i wymaganiami obliczeniowymi. Początkowe lata ery AI były wszystkie o dużym zadaniu szkolenia dużych modeli AI na bardzo dużych zbiorach danych, wszystko to wymagało dużej ilości przetwarzania, złożonych obliczeń, dostosowań wag i zależności od pamięci. Po tym, jak modele AI zostały wyszkolone, wszystko się zmienia. AI może używać wnioskowania, aby zastosować wszystko, czego nauczyło się do nowych zbiorów danych, zadań i problemów. Wnioskowanie, jako mniej intensywny proces obliczeniowy niż szkolenie, nie wymaga tylu GPU lub innych zasobów obliczeniowych.

Ostateczna prawda o DeepSeek jest taka, że chociaż jego metody nie zaskoczyły większości z nas w ekosystemie AI tak bardzo, jak to zrobiło to u przypadkowo zainteresowanych inwestorów giełdowych, to jednak podkreśliło jeden ze sposobów, w jaki wnioskowanie będzie kluczowe dla następnej fazy ewolucji AI.

AI: Następna generacja

Obietnica i potencjał AI nie zmieniły się. Trwające ogromne inwestycje w AI przez głównych hyperscalerów pokazują wiarę, którą mają w przyszłą wartość, którą mogą odblokować z AI, a także sposoby, w jakie AI może zmienić sposób pracy niemal każdej branży i sposób, w jaki niemal wszyscy ludzie wykonują swoje codzienne czynności.

To, co się zmieniło dla tych hyperscalerów, to to, jak te dolary będą wydawane. W początkowych latach ery AI większość inwestycji była koniecznie na szkolenie. Jeśli pomyślisz o AI jako o dziecku, z umysłem, który jeszcze się rozwija, wydaliśmy dużo pieniędzy, aby posłać je do najlepszych szkół i uniwersytetów. Teraz to dziecko jest wykształconym dorosłym – i potrzebuje znaleźć pracę, aby się utrzymać. W rzeczywistych warunkach wydaliśmy dużo pieniędzy na szkolenie AI, i teraz musimy zobaczyć zwrot z tej inwestycji, używając AI do generowania nowych przychodów.

Aby osiągnąć ten zwrot z inwestycji, AI musi stać się bardziej wydajne i mniej kosztowne, aby pomóc firmom maksymalizować jego atrakcyjność rynkową i jego użyteczność dla jak największej liczby aplikacji. Najbardziej lukratywne nowe usługi będą tymi, które nie wymagają monitorowania i zarządzania przez ludzi.

Dla wielu firm oznacza to wykorzystanie efektywnych pod względem zasobów technik obliczeniowych AI, takich jak wnioskowanie modelu, aby szybko i tanio umożliwić autonomiczne komunikacje maszyna-maszyna. Na przykład w branży bezprzewodowej AI można wykorzystać do autonomicznej analizy danych w czasie rzeczywistym o wykorzystaniu spektrum na sieci komórkowej w celu optymalizacji użycia kanału i złagodzenia interferencji między użytkownikami, co ostatecznie pozwala operatorowi komórkowemu na bardziej dynamiczne dzielenie się spektrum na sieci. Ten rodzaj bardziej wydajnej, autonomicznej komunikacji maszyna-maszyna zasilanej przez AI będzie definiował następną generację AI.

Jak nauczyła nas historia komputeryzacji, nowa technologia zawsze wymaga dużej ilości inwestycji na początku, ale koszty będą spadać, a wydajność będzie rosła, gdy zaczniemy wykorzystywać ulepszone techniki i lepsze praktyki, aby tworzyć bardziej korzystne i przystępne produkty i usługi dla jak największych rynków. Innowacja zawsze znajduje sposób.

Sektor AI może ostatnio wydawać się, że doznał zawodu, ale dolary, które hyperscalery planują wydać w tym roku, i rosnące wykorzystanie technik opartych na wnioskowaniu, mówią inną historię: obliczenia AI się zmieniają, ale obietnica AI jest w pełni nienaruszona.

Fernando dołączył do Digital Global Systems (DGS) w 2013 roku z PriceWaterhouseCoopers, gdzie zajmował kilka stanowisk kierowniczych w Stanach Zjednoczonych i Ameryce Łacińskiej.

Fernando był na czele innowacyjnych modeli inwestycyjnych dla przedsięwzięć technologicznych; nowatorskich umów partnerskich wykorzystujących struktury CAPEX-light; oraz strategicznej wizji wartości biznesowej wykorzystującej nowe technologie i konstrukcje operacyjne. W swoich rolach Fernando zbudował znaczną wartość biznesową przedsiębiorstwa, wykorzystując unikalne portfele własności intelektualnej i wschodzące innowacje w zakresie danych, analizy i sztucznej inteligencji.