Liderzy myśli
Czego DeepSeek może nas nauczyć o kosztach i wydajności sztucznej inteligencji

Z uroczym logo wieloryba, niedawna premiera DeepSeek mogła być niczym więcej niż kolejną podróbką ChatGPT. To, co sprawiło, że stała się tak godna uwagi – i co spowodowało spadek akcji konkurentów – to jak niskie koszty jej stworzenia. Skutecznie rzuciło to kłody pod nogi amerykańskiemu pojęciu inwestycji potrzebnych do wyszkolenia wysoce funkcjonalnego Dużego Modelu Językowego (LLM).
DeepSeek rzekomo wydało zaledwie 6 milionów dolarów na wyszkolenie swojego modelu AI. Porównajmy to z doniesieniami o 80–100 milionach dolarów, które OpenAI wydało na Chat GPT-4 lub 1 miliardem dolarów, które odłożyli na GPT-5. DeepSeek kwestionuje ten poziom inwestycji i pozostawia dużych graczy, takich jak Nvidia – której akcje spadły o 600 miliardów dolarów w ciągu jednego dnia – TSMC i Microsoft zaniepokojonych długoterminową rentownością finansową AI. Jeśli możliwe jest wyszkolenie modeli AI za znacznie mniej niż wcześniej zakładano, co to oznacza dla wydatków na AI ogółem?
Chociaż zakłócenie DeepSeek doprowadziło do ważnych dyskusji, niektóre kluczowe punkty wydają się gubić w tym zamieszaniu. Jednak wiadomości przynoszą większe skupienie na tym, ile kosztuje innowacja i możliwy wpływ ekonomiczny AI. Oto trzy ważne spostrzeżenia wynikające z tych wiadomości:
1. Cena DeepSeek wynosząca 6 milionów dolarów jest myląca
Firmy muszą zrozumieć całkowity koszt posiadania (TCO) swojej infrastruktury. Chociaż cena DeepSeek wynosząca 6 milionów dolarów była często wymieniana, jest to prawdopodobnie koszt samego uruchomienia wstępnego szkolenia, a nie całej inwestycji. Całkowity koszt – nie tylko uruchomienia, ale także zbudowania i szkolenia DeepSeek – jest prawdopodobnie znacznie wyższy. Firma analityków branżowych Półanaliza ujawnił, że firma stojąca za DeepSeek wydała 1.6 miliarda dolarów na sprzęt, aby jej LLM stał się rzeczywistością. Więc prawdopodobny koszt jest gdzieś pośrodku.
Bez względu na to, jaki jest prawdziwy koszt, pojawienie się DeepSeek stworzyło skupienie na opłacalnej innowacji, która może być transformacyjna. Innowacje są często pobudzane przez ograniczenia, a sukces DeepSeek podkreśla sposób, w jaki innowacje mogą się pojawić, gdy zespoły inżynieryjne optymalizują swoje zasoby w obliczu rzeczywistych ograniczeń.
2. To wnioskowanie, a nie szkolenie, czyni sztuczną inteligencję wartościową
Należy zwrócić uwagę na koszty szkolenia modelu AI, jednak stanowią one jedynie niewielką część całkowitych kosztów budowy i uruchomienia modelu AI. Wnioskowanie — wielorakie sposoby, w jakie sztuczna inteligencja zmienia sposób, w jaki ludzie pracują, komunikują się i żyją — to właśnie tam sztuczna inteligencja staje się naprawdę cenna.
Przywołuje to paradoks Jevonsa, teorię ekonomiczną sugerującą, że w miarę jak postęp technologiczny sprawia, że wykorzystanie zasobu staje się bardziej efektywne, ogólne zużycie tego zasobu może faktycznie wzrosnąć. Innymi słowy, w miarę jak koszty szkoleń maleją, wnioskowanie i konsumpcja agentów będą rosły, a ogólne wydatki pójdą w ich ślady.
Wydajność AI może w rzeczywistości doprowadzić do wzrostu wydatków na AI, co powinno podnieść wszystkie łodzie, nie tylko chińskie. Zakładając, że płyną na fali wydajności, firmy takie jak OpenAI i Nvidia również na tym skorzystają.
3. Prawdą pozostaje, że najważniejsza jest ekonomia jednostkowa
Zwiększenie wydajności AI nie polega jedynie na obniżeniu kosztów; chodzi również o optymalizację ekonomii jednostkowej. The Motley Fool prognozuje, że ten rok będzie rok wydajności AIJeśli mają rację, firmy powinny zwrócić uwagę na obniżenie kosztów szkolenia AI, a także kosztów konsumpcji AI.
Organizacje, które budują lub wykorzystują AI, muszą znać swoją ekonomię jednostkową, zamiast wyodrębniać imponujące liczby, takie jak koszt szkolenia DeepSeek wynoszący 6 milionów dolarów. Prawdziwa wydajność wiąże się z przydzieleniem wszystkich kosztów, śledzeniem popytu napędzanego przez AI i stałym monitorowaniem stosunku kosztów do wartości.
Ekonomia jednostek chmury (CUE) ma związek z pomiarem i maksymalizacją zysku generowanego przez chmurę. CUE porównuje koszty chmury z metrykami przychodów i popytu, ujawniając, jak wydajne są Twoje wydatki na chmurę, jak zmieniały się one w czasie i (jeśli masz odpowiednią platformę) najlepsze sposoby na zwiększenie tej wydajności.
Zrozumienie CUE ma jeszcze większą użyteczność w kontekście AI, biorąc pod uwagę, że jest z natury droższe w konsumpcji niż tradycyjne usługi w chmurze sprzedawane przez hiperskalery. Firmy tworzące aplikacje agentowe mogłyby obliczyć swój koszt transakcji (np. koszt rachunku, koszt dostawy, koszt transakcji itp.) i wykorzystać go do oceny zwrotu z inwestycji w określone usługi, produkty i funkcje oparte na AI. Wraz ze wzrostem wydatków na AI firmy będą zmuszone to zrobić; żadna firma nie może wiecznie rzucać niekończącymi się dolarami w eksperymentalną innowację. Ostatecznie musi to mieć sens biznesowy.
W kierunku większej wydajności
Niezależnie od tego, jak znacząca jest kwota 6 milionów dolarów, DeepSeek może zapewnić przełomowy moment, który obudzi branżę technologiczną do nieuniknionej wagi wydajności. Miejmy nadzieję, że otworzy to wrota dla opłacalnego szkolenia, wnioskowania i aplikacji agentowych, które odblokują prawdziwy potencjał i zwrot z inwestycji w AI.