Vordenker
Was DeepSeek uns über die Kosten und Effizienz von KI beibringen kann

Mit seinem niedlichen Wal-Logo hätte die jüngste Veröffentlichung von DeepSeek nichts anderes als eine weitere ChatGPT-Kopie sein können. Was es so berichtenswert machte – und die Aktien der Konkurrenz ins Trudeln brachte – waren die geringen Entwicklungskosten. Es hat die Vorstellung der USA von den Investitionen, die für das Training eines hochfunktionalen Large Language Model (LLM) erforderlich sind, effektiv durchkreuzt.
DeepSeek hat angeblich nur 6 Millionen Dollar ausgegeben, um sein KI-Modell zu trainieren. Vergleichen Sie das mit den 80 bis 100 Millionen Dollar, die OpenAI für Chat GPT-4 ausgegeben hat, oder der 1 Milliarde Dollar, die sie für GPT-5 zurückgelegt haben. DeepSeek stellt diese Investitionshöhe in Frage und lässt große Player wie Nvidia – dessen Aktienwert an einem Tag um 600 Milliarden Dollar einbrach –, TSMC und Microsoft über die langfristige finanzielle Rentabilität von KI besorgt zurück. Wenn es möglich ist, KI-Modelle für deutlich weniger Geld zu trainieren als bisher angenommen, was bedeutet das für die Gesamtausgaben für KI?
Obwohl die Unterbrechung von DeepSeek zu wichtigen Diskussionen geführt hat, scheinen einige wichtige Punkte im Trubel unterzugehen. Was die Nachricht jedoch hervorruft, ist eine stärkere Fokussierung auf die Kosten von Innovationen und die möglichen wirtschaftlichen Auswirkungen von KI. Hier sind drei wichtige Erkenntnisse, die sich aus dieser Nachricht ergeben:
1. Der Preis von DeepSeek in Höhe von 6 Millionen US-Dollar ist irreführend
Unternehmen müssen die Gesamtbetriebskosten (TCO) ihrer Infrastruktur im Auge behalten. Obwohl der Preis von DeepSeek in Höhe von 6 Millionen Dollar oft genannt wird, handelt es sich dabei wahrscheinlich nur um die Kosten für den Vortrainingslauf und nicht um die Gesamtinvestition. Die Gesamtkosten – nicht nur für den Betrieb, sondern auch für den Aufbau und das Training von DeepSeek – sind wahrscheinlich viel höher. Das Branchenanalyseunternehmen SemiAnalyse enthüllte, dass das Unternehmen hinter DeepSeek 1.6 Milliarden Dollar für Hardware ausgegeben hat, um sein LLM zu verwirklichen. Die Kosten liegen also wahrscheinlich irgendwo in der Mitte.
Wie hoch die tatsächlichen Kosten auch sein mögen, die Einführung von DeepSeek hat den Fokus auf kosteneffiziente Innovationen gelenkt, die einen Wandel herbeiführen könnten. Innovationen werden oft durch Einschränkungen vorangetrieben, und der Erfolg von DeepSeek unterstreicht, wie Innovationen entstehen können, wenn Entwicklungsteams ihre Ressourcen angesichts realer Einschränkungen optimieren.
2. Was KI wertvoll macht, ist die Schlussfolgerung, nicht das Training
Es ist wichtig, darauf zu achten, wie viel das Training eines KI-Modells kostet, aber das Training stellt nur einen kleinen Teil der Gesamtkosten für die Erstellung und Ausführung eines KI-Modells dar. Inferenz — die vielfältigen Wege, auf denen KI die Art und Weise verändert, wie Menschen arbeiten, interagieren und leben — sind der Punkt, an dem KI ihren wahren Wert erlangt.
Dies bringt uns zum Jevons-Paradoxon, einer ökonomischen Theorie, die besagt, dass der Gesamtverbrauch einer Ressource sogar steigen kann, wenn technologische Fortschritte die Nutzung einer Ressource effizienter machen. Mit anderen Worten: Wenn die Schulungskosten sinken, steigt der Inferenz- und Agentenverbrauch, und die Gesamtausgaben steigen.
Die Effizienz der KI könnte tatsächlich zu steigenden Ausgaben für KI führen, was nicht nur die chinesischen, sondern alle ankurbeln dürfte. Vorausgesetzt, sie reiten auf der Effizienzwelle, werden auch Unternehmen wie OpenAI und Nvidia davon profitieren.
3. Was nach wie vor gilt, ist, dass die Stückkosten am wichtigsten sind
Um KI effizienter zu machen, geht es nicht nur darum, Kosten zu senken, sondern auch darum, die Stückkosten zu optimieren. The Motley Fool prognostiziert, dass dieses Jahr das Jahr der KI-EffizienzWenn diese Zahlen richtig sind, sollten Unternehmen darauf achten, ihre Schulungskosten für KI sowie ihre Kosten für die Nutzung von KI zu senken.
Organisationen, die KI entwickeln oder einsetzen, müssen ihre Stückkosten kennen, anstatt beeindruckende Zahlen wie die 6 Millionen US-Dollar an Schulungskosten von DeepSeek herauszupicken. Echte Effizienz bedeutet, alle Kosten zuzuordnen, die KI-gesteuerte Nachfrage zu verfolgen und das Kosten-Nutzen-Verhältnis ständig im Auge zu behalten.
Bei Cloud Unit Economics (CUE) geht es darum, den durch die Cloud erzielten Gewinn zu messen und zu maximieren. CUE vergleicht Ihre Cloud-Kosten mit Umsatz- und Nachfragekennzahlen und zeigt so, wie effizient Ihre Cloud-Ausgaben sind, wie sich diese im Laufe der Zeit verändert haben und (wenn Sie über die richtige Plattform verfügen) die besten Möglichkeiten zur Steigerung dieser Effizienz.
Das Verständnis von CUE ist im KI-Kontext sogar noch nützlicher, da es von Natur aus teurer ist als herkömmliche Cloud-Dienste, die von den Hyperscalern verkauft werden. Unternehmen, die agentenbasierte Anwendungen erstellen, könnten ihre Kosten pro Transaktion berechnen (z. B. Kosten pro Rechnung, Kosten pro Lieferung, Kosten pro Handel usw.) und dies verwenden, um den Return on Investment bestimmter KI-gestützter Dienste, Produkte und Funktionen zu bewerten. Mit steigenden KI-Ausgaben werden Unternehmen dazu gezwungen sein; kein Unternehmen kann endlos Geld in experimentelle Innovationen stecken. Letztendlich muss es geschäftlich sinnvoll sein.
Auf dem Weg zu mehr Effizienz
So bedeutsam die 6 Millionen Dollar auch sein mögen, DeepSeek könnte einen Wendepunkt darstellen, der der Technologiebranche die Augen für die unabdingbare Bedeutung von Effizienz öffnet. Hoffen wir, dass dies die Schleusen für kostengünstige Trainings-, Inferenz- und Agentenanwendungen öffnet, die das wahre Potenzial und den ROI der KI freisetzen.