Vordenker
Der AI-Boom ist nicht geplatzt, aber AI-Computing ändert sich definitiv

Fürchten Sie sich nicht zu sehr vor den AI-Bären. Sie fragen sich laut, ob der große Boom in AI-Investitionen bereits vorbei ist, ob die große Markterregung und das Ausgeben von massiven AI-Trainings-Systemen, die von einer Vielzahl von High-Performance-GPUs angetrieben werden, sich bereits ausgetobt haben, und ob die Erwartungen an die AI-Ära radikal zurückgeschraubt werden sollten.
Wenn man jedoch genauer auf die Pläne der großen Hyperscaler schaut, ist AI-Investition quicklebendig. Meta, Amazon, Microsoft und Google haben alle kürzlich ihre Investitionen in AI-Technologie verdoppelt. Ihre kollektive Verpflichtung für 2025 beträgt laut einem aktuellen Bericht in der Financial Times über 300 Milliarden Dollar. Microsoft-CEO Satya Nadella sagte, Microsoft könne allein in diesem Jahr 80 Milliarden Dollar in AI ausgeben. Meta-Gründer und CEO Mark Zuckerberg sagte auf Facebook: “Wir planen, 60-65 Milliarden Dollar in Capex zu investieren, während wir auch unsere AI-Teams erheblich vergrößern, und wir haben das Kapital, um in den kommenden Jahren weiter in AI zu investieren.”
Dies klingt nicht nach einem AI-Boom, der geplatzt ist, aber es gibt eine wachsende Unruhe darüber, wie viel Geld für die Aktivierung von AI-Anwendungen ausgegeben wird. Nach mindestens zwei Jahren, in denen Technologie-Giganten sagten, sie sähen eine klare Nachfrage nach mehr Rechenleistung, um große AI-Modelle zu trainieren, hat 2025 begonnen, dass diese Unternehmen täglich von der Wirtschaftspresse für den Aufbau von so viel AI-Hype gerügt werden.
Warum gab es einen so plötzlichen Wechsel von Hoffnung zu Besorgnis? Die Antwort liegt teilweise im rapiden Aufstieg einer neuen AI-Anwendung aus China. Um jedoch vollständig zu verstehen, was wirklich passiert und was es für AI-Investitionen und Technologie-Programme in den kommenden Jahren bedeutet, müssen wir anerkennen, dass die AI-Ära in eine neue Phase ihrer Evolution eintritt.
DeepSeeking die Wahrheit
Inzwischen weiß die Welt alles über DeepSeek, das chinesische AI-Unternehmen, das bekannt gibt, wie es Inferenz-Engines und statistische Argumentation verwendet, um große Sprachmodelle viel effizienter und mit geringeren Kosten zu trainieren als andere Unternehmen ihre Modelle trainiert haben.
Insbesondere behauptete DeepSeek, dass seine Techniken dazu führten, dass es viel weniger GPUs (so wenig wie 2.048 GPUs) und weniger leistungsfähige GPUs (Nvidia H800s) benötigte als die Hunderttausende von High-Performance-GPUs (denken Sie an Nvidia H100s), die einige Hyperscale-Unternehmen benötigt haben, um ihre Modelle zu trainieren. In Bezug auf Kosteneinsparungen gab OpenAI Milliarden von Dollar für das Training von ChatGPT aus, während DeepSeek berichtet haben, dass es so wenig wie 6,5 Millionen Dollar für das Training seines R1-Modells ausgegeben hat.
Es sollte beachtet werden, dass viele Experten DeepSeeks Ausgaben-Behauptungen angezweifelt haben, aber der Schaden war bereits angerichtet, da die Nachrichten über seine unterschiedlichen Methoden zu einem tiefen Einbruch der Aktienwerte der Hyperscaler und der Unternehmen führten, deren GPUs sie Milliarden für das Training ihrer AI-Modelle ausgegeben haben.
Es wurden jedoch ein paar wichtige Punkte im Chaos verloren. Einer war das Verständnis, dass DeepSeek nicht eine neue Methode erfand, um mit AI zu arbeiten. Der zweite Punkt ist, dass ein großer Teil des AI-Ökosystems sich bereits einer bevorstehenden Veränderung bewusst war, wie AI-Investitions-Dollar ausgegeben werden müssen und wie AI selbst in den kommenden Jahren eingesetzt wird.
In Bezug auf DeepSeeks Methoden ist die Idee, AI-Inferenz-Engines und statistische Argumentation zu verwenden, nichts Neues. Die Verwendung von statistischer Argumentation ist ein Aspekt des umfassenderen Konzepts der Inferenz-Modell-Argumentation, das es AI ermöglicht, auf der Grundlage von Mustererkennung Rückschlüsse zu ziehen. Dies ist im Wesentlichen ähnlich wie die menschliche Fähigkeit, unterschiedliche Ansätze für ein Problem zu lernen und sie zu vergleichen, um die beste mögliche Lösung zu finden. Inferenz-basierte Modell-Argumentation kann heute verwendet werden und ist nicht exklusiv für ein chinesisches Start-up.
Währenddessen hat das AI-Ökosystem bereits seit geraumer Zeit eine grundlegende Veränderung in der Art und Weise vorhergesehen, wie wir mit AI und den erforderlichen Rechenressourcen arbeiten. Die Anfangsjahre der AI-Ära waren allesamt von der großen Aufgabe des Trainings großer AI-Modelle auf sehr großen Datenmengen geprägt, was viel Verarbeitung, komplexe Berechnungen, Gewichtsanpassungen und Speicherabhängigkeit erforderte. Nachdem AI-Modelle trainiert wurden, ändert sich alles. AI kann Inferenz verwenden, um alles, was es gelernt hat, auf neue Datenmengen, Aufgaben und Probleme anzuwenden. Inferenz ist als weniger rechenintensiver Prozess als das Training nicht so viele GPUs oder andere Rechenressourcen erforderlich.
Die ultimative Wahrheit über DeepSeek ist, dass seine Methoden, obwohl sie die meisten von uns im AI-Ökosystem nicht so sehr überraschten wie die casual interessierten Aktienmarkt-Investoren, einen der Wege hervorhoben, auf denen Inferenz für die nächste Phase der Evolution von AI von zentraler Bedeutung sein wird.
AI: Die nächste Generation
Das Versprechen und das Potenzial von AI haben sich nicht geändert. Die laufenden massiven AI-Investitionen der großen Hyperscaler zeigen den Glauben, den sie in den zukünftigen Wert haben, den sie durch AI freisetzen können, sowie die Wege, auf denen AI fast jede Branche verändern und wie fast alle Menschen ihren Alltag gestalten kann.
Was sich jedoch für diese Hyperscaler geändert hat, ist, wie diese Dollar ausgegeben werden. In den Anfangsjahren der AI-Ära wurde der größte Teil der Investitionen notwendigerweise in das Training gesteckt. Wenn man an AI als ein Kind denkt, mit einem Geist, der noch in der Entwicklung ist, haben wir viel Geld ausgegeben, um es auf die besten Schulen und Universitäten zu schicken. Jetzt ist dieses Kind ein ausgebildeter Erwachsener – und es muss einen Job finden, um sich selbst zu unterstützen. In realen Begriffen haben wir viel in das Training von AI investiert, und jetzt müssen wir die Rendite auf diese Investition sehen, indem wir AI verwenden, um neue Einnahmen zu generieren.
Um diese Rendite auf die Investition zu erzielen, muss AI effizienter und weniger teuer werden, um Unternehmen zu helfen, seinen Marktzugang und seine Nützlichkeit für so viele Anwendungen wie möglich zu maximieren. Die lukrativsten neuen Dienste werden die autonomen sein, die keine menschliche Überwachung und Verwaltung erfordern.
Für viele Unternehmen bedeutet dies, ressourcenschonende AI-Computing-Techniken wie Inferenz-Modell-Argumentation zu nutzen, um autonome Maschine-zu-Maschine-Kommunikation schnell und kostengünstig zu ermöglichen. Zum Beispiel kann in der Wireless-Industrie AI verwendet werden, um in Echtzeit Daten über die Spektrumnutzung in einem mobilen Netzwerk zu analysieren, um den Kanalgebrauch zu optimieren und die Störung zwischen Benutzern zu mindern, was letztendlich es einem Mobilfunkbetreiber ermöglicht, dynamisches Spektrum-Sharing über sein Netzwerk zu unterstützen. Diese Art von effizienter, autarker AI-gesteuerter Maschine-zu-Maschine-Kommunikation wird AI’s nächste Generation definieren.
Wie bei jeder anderen großen Rechenära war AI-Computing immer noch im Wandel. Wenn die Geschichte der Rechnertechnik uns etwas gelehrt hat, dann ist es, dass neue Technologie immer viel vorherige Investition erfordert, aber die Kosten werden sinken und die Effizienz wird steigen, wenn wir beginnen, verbesserte Techniken und bessere Praktiken zu nutzen, um mehr nützliche und erschwingliche Produkte und Dienstleistungen zu schaffen, um die größtmöglichen Märkte anzusprechen. Innovation findet immer einen Weg.
Der AI-Sektor mag kürzlich einen Rückschlag erlitten haben, wenn man den AI-Bären zuhört, aber die Dollar, die die Hyperscaler planen, in diesem Jahr auszugeben, und die zunehmende Verwendung von Inferenz-basierten Techniken erzählen eine andere Geschichte: AI-Computing ändert sich tatsächlich, aber AI’s Versprechen ist vollständig intakt.












