Connect with us

Liderzy opinii

Co czego możemy nauczyć się od DeepSeek o koszcie i wydajności AI

mm

Z jego uroczym logiem wieloryba, niedawne wydanie DeepSeek mogło okazać się niczym więcej niż kolejną kopią ChatGPT. To, co sprawiło, że stało się nowością – i co spowodowało, że akcje konkurentów poszły w dół – to to, jak niewiele kosztowało jego stworzenie. Skutecznie wrzuciło klin między amerykańskie pojęcie inwestycji niezbędnej do trenowania wysoko funkcjonalnego Dużego Modelu Językowego (LLM).

DeepSeek rzekomo wydał tylko 6 milionów dolarów na trenowanie swojego modelu AI. Porównaj to z 80–100 milionami dolarów, które OpenAI wydało na Chat GPT-4 lub 1 miliardem dolarów, które wyłożyli na GPT-5. DeepSeek poddaje w wątpliwość ten poziom inwestycji i pozostawia duże firmy, takie jak Nvidia – których wartość akcji spadła o 600 miliardów dolarów w ciągu jednego dnia – TSMC i Microsoft, niepewne co do długoterminowej opłacalności finansowej AI. Jeśli jest możliwe trenowanie modeli AI za znacznie mniej, niż wcześniej zakładano, co to oznacza dla wydatków na AI w ogóle?

Chociaż zakłócenie spowodowane przez DeepSeek doprowadziło do ważnych dyskusji, niektóre kluczowe punkty zdają się ginąć w zamieszaniu. Niemniej jednak, to, co ta wiadomość wywołuje, to większy nacisk na to, ile kosztuje innowacja i możliwy wpływ ekonomiczny AI. Oto trzy ważne spostrzeżenia wynikające z tej wiadomości:

1. Cena 6 milionów dolarów DeepSeek jest myląca

Firmy muszą zrozumieć całkowity koszt posiadania swojej infrastruktury (TCO). Chociaż cena 6 milionów dolarów DeepSeek była często wymieniana, jest to prawdopodobnie koszt tylko jego wstępnego przebiegu szkoleniowego, a nie całej inwestycji. Całkowity koszt – nie tylko prowadzenia, ale także budowy i trenowania DeepSeek – jest prawdopodobnie znacznie wyższy. Firma analityczna SemiAnalysis ujawniła, że firma za DeepSeek wydała 1,6 miliarda dolarów na sprzęt, aby uczynić swój LLM rzeczywistością. Więc prawdopodobny koszt jest gdzieś pośrodku.

Niezależnie od tego, jaki jest prawdziwy koszt, pojawienie się DeepSeek stworzyło nacisk na innowację opartą na efektywności kosztów, co może być przełomowe. Innowacja jest często pobudzana przez ograniczenia, a sukces DeepSeek podkreśla sposób, w jaki innowacja może nastąpić, gdy zespoły inżynierskie optymalizują swoje zasoby w obliczu realnych ograniczeń.

2. Wnioskowanie jest tym, co sprawia, że AI jest wartościowy, a nie trenowanie

Ważne jest, aby zwrócić uwagę na to, ile kosztuje trenowanie modelu AI, ale trenowanie stanowi niewielką część ogólnego kosztu budowy i prowadzenia modelu AI. Wnioskowanie — różne sposoby, w jakie AI zmienia sposób, w jaki ludzie pracują, взаимодействуют i żyją — to miejsce, w którym AI staje się naprawdę wartościowy.

To podnosi paradoks Jevonsa, teorię ekonomiczną, która sugeruje, że wraz ze wzrostem efektywności technologicznej, ogólne zużycie tego zasobu może się zwiększyć. Innymi słowy, wraz ze spadkiem kosztów trenowania, wnioskowanie i agenci zużycie wzrosną, a ogólne wydatki będą rosły.
Efektywność AI może w rzeczywistości prowadzić do wzrostu wydatków na AI, co powinno podnieść wszystkie łodzie, a nie tylko chińskie. Zakładając, że będą płynąć na fali efektywności, firmy takie jak OpenAI i Nvidia również skorzystają.

3. To, co pozostaje prawdą, to fakt, że ekonomia jednostkowa ma największe znaczenie

Uczynienie AI bardziej efektywnym nie jest tylko kwestią obniżania kosztów; jest to również optymalizacja ekonomii jednostkowej. The Motley Fool przewiduje, że ten rok będzie rokiem efektywności AI. Jeśli mają rację, firmy powinny zwrócić uwagę na obniżanie kosztów trenowania AI, a także kosztów zużycia AI.

Organizacje, które budują lub używają AI, muszą wiedzieć, jaka jest ich ekonomia jednostkowa, zamiast wybierać imponujące liczby, takie jak koszt trenowania DeepSeek w wysokości 6 milionów dolarów. Prawdziwa efektywność polega na alokowaniu wszystkich kosztów, śledzeniu popytu generowanego przez AI i ciągłym monitorowaniu kosztów w stosunku do wartości.

Ekonomia jednostkowa chmury (CUE) dotyczy mierzenia i maksymalizacji zysku generowanego przez chmurę. CUE porównuje koszty chmury z metrykami przychodu i popytu, ujawniając, jak efektywne jest wydawanie chmury, jak to się zmieniło w czasie i (jeśli masz odpowiednią platformę) najlepsze sposoby zwiększenia tej efektywności.

Zrozumienie CUE ma jeszcze większą użyteczność w kontekście AI, biorąc pod uwagę, że jest ono z natury droższe w zużyciu niż tradycyjne usługi chmury sprzedawane przez hyperscalers. Firmy budujące aplikacje agenticzne mogą obliczyć swój koszt na transakcję (np. koszt na fakturę, koszt na dostawę, koszt na transakcję itp.) i użyć tego do oceny zwrotu z inwestycji w określone usługi, produkty i funkcje napędzane przez AI. W miarę wzrostu wydatków na AI, firmy będą musiały to robić; żadna firma nie może rzucać niekończących się dolarów na innowacje eksperymentalne wiecznie. W końcu musi to mieć sens biznesowy.

Ku większej efektywności

Niezależnie od tego, jak istotna jest kwota 6 milionów dolarów, DeepSeek może zapewnić moment przełomowy, który obudzi branżę technologiczną do nieuniknionego znaczenia efektywności. Miejmy nadzieję, że to otworzy floodgates dla efektywnego trenowania, wnioskowania i aplikacji agenticznych, które odblokują prawdziwy potencjał i zwrot z inwestycji w AI.

Phil Pergola jest CEO CloudZero. Jest doświadczonym executive'em oprogramowania B2B z doświadczeniem w napędzaniu znaczącego wzrostu przychodu i pozytywnych wyników biznesowych w całym cyklu życia klienta – pozyskiwania, wdrożenia, przyjęcia, rozszerzenia i utrzymania.