Vordenker
DeepSeek-Ablenkungen: Warum AI-native Infrastruktur, nicht Modelle, den Erfolg von Unternehmen definieren wird
Stellen Sie sich vor, Sie würden versuchen, mit einem Ferrari auf schlechten Straßen zu fahren. Egal, wie schnell das Auto ist, sein volles Potenzial wird ohne eine solide Grundlage, um es zu unterstützen, verschwendet. Diese Analogie fasst die heutige Unternehmens-AI-Landschaft zusammen. Unternehmen beschäftigen sich oft mit glänzenden neuen Modellen wie DeepSeek-R1 oder OpenAI o1, während sie die Bedeutung der Infrastruktur, um von ihnen einen Nutzen zu ziehen, vernachlässigen. Anstatt sich ausschließlich auf die Frage zu konzentrieren, wer die fortschrittlichsten Modelle entwickelt, müssen Unternehmen beginnen, in robuste, flexible und sichere Infrastruktur zu investieren, die es ihnen ermöglicht, effektiv mit jedem AI-Modell zu arbeiten, sich an technologische Fortschritte anzupassen und ihre Daten zu schützen.
Mit der Veröffentlichung von DeepSeek, einem hochentwickelten großen Sprachmodell (LLM) mit umstrittenen Ursprüngen, ist die Branche derzeit von zwei Fragen ergriffen:
- Ist DeepSeek real oder nur Rauch und Spiegel?
- Haben wir in Unternehmen wie OpenAI und NVIDIA überinvestiert?
Tongue-in-cheek-Twitter-Kommentare implizieren, dass DeepSeek das tut, was chinesische Technologie am besten kann: “fast so gut, aber viel billiger.” Andere implizieren, dass es zu gut klingt, um wahr zu sein. Ein Monat nach seiner Veröffentlichung fiel der Markt von NVIDIA um fast 600 Milliarden Dollar und Axios legt nahe, dass dies ein Extinktionsereignis für Risikokapitalgesellschaften sein könnte. Große Stimmen hinterfragen, ob Project Stargates 500-Milliarden-Dollar-Verpflichtung für die physische AI-Infrastrukturinvestition benötigt wird, nur 7 Tage nach seiner Ankündigung.
Und heute hat Alibaba gerade ein Modell angekündigt, das behauptet, DeepSeek zu übertreffen!
AI-Modelle sind nur ein Teil der Gleichung. Es ist das glänzende neue Objekt, nicht das gesamte Paket für Unternehmen. Was fehlt, ist AI-native Infrastruktur.
Ein grundlegendes Modell ist lediglich eine Technologie – es benötigt leistungsfähige, AI-native Werkzeuge, um sich in ein leistungsstarkes Geschäftsvermögen zu verwandeln. Da sich AI mit Lichtgeschwindigkeit entwickelt, kann ein Modell, das Sie heute übernehmen, morgen bereits veraltet sein. Was Unternehmen wirklich benötigen, ist nicht nur das “beste” oder “neueste” AI-Modell, sondern die Werkzeuge und Infrastruktur, um nahtlos auf neue Modelle umzusteigen und sie effektiv zu nutzen.
Ob DeepSeek eine innovative Störung oder übertriebene Hype darstellt, ist nicht die eigentliche Frage. Stattdessen sollten Organisationen ihre Skepsis beiseite legen und sich fragen, ob sie die richtige AI-Infrastruktur haben, um widerstandsfähig zu bleiben, während Modelle verbessert und geändert werden. Und können sie leicht zwischen Modellen wechseln, um ihre Geschäftsziele ohne Neukonstruktion alles zu erreichen?
Modelle vs. Infrastruktur vs. Anwendungen
Um die Rolle der Infrastruktur besser zu verstehen, betrachten Sie die drei Komponenten der AI-Nutzung:
- Die Modelle: Dies sind Ihre AI-Motoren – Large Language Modelle (LLMs) wie ChatGPT, Gemini und DeepSeek. Sie führen Aufgaben wie Sprachverständnis, Datenklassifizierung, Vorhersagen und mehr aus.
- Die Infrastruktur: Dies ist die Grundlage, auf der AI-Modelle operieren. Sie umfasst die Werkzeuge, Technologien und Managed Services, die notwendig sind, um Modelle zu integrieren, zu verwalten und zu skalieren, während sie mit Geschäftsanforderungen abgestimmt werden. Dies umfasst in der Regel Technologien, die sich auf Compute, Data, Orchestrierung und Integration konzentrieren. Unternehmen wie Amazon und Google bieten die Infrastruktur, um Modelle auszuführen, und Werkzeuge, um sie in den Technologie-Stack eines Unternehmens zu integrieren.
- Die Anwendungen/Nutzungsfälle: Dies sind die Anwendungen, die Endbenutzer sehen und die AI-Modelle nutzen, um ein Geschäftsergebnis zu erzielen. Hunderte von Angeboten kommen auf den Markt, von etablierten Unternehmen, die AI an bestehende Anwendungen anknüpfen (z. B. Adobe, Microsoft Office mit Copilot) und ihre AI-nativen Herausforderer (Numeric, Clay, Captions).
Während Modelle und Anwendungen oft die Aufmerksamkeit auf sich ziehen, ermöglicht die Infrastruktur stillschweigend, dass alles reibungslos zusammenarbeitet und legt die Grundlage für die Funktionsweise von Modellen und Anwendungen in der Zukunft. Sie stellt sicher, dass Organisationen zwischen Modellen wechseln und den tatsächlichen Wert von AI nutzen können, ohne den Rahmen zu sprengen oder den Betrieb zu stören.
Warum AI-native Infrastruktur mission-kritisch ist
Jedes LLM ist in verschiedenen Aufgaben hervorragend. Zum Beispiel ist ChatGPT großartig für konversationales AI, während Med-PaLM für die Beantwortung medizinischer Fragen konzipiert ist. Die AI-Landschaft ist so heftig umkämpft, dass das heute führende Modell morgen von einem billigeren, besseren Wettbewerber übertroffen werden könnte.
Ohne flexible Infrastruktur könnten Unternehmen sich in einer Situation wiederfinden, in der sie an ein Modell gebunden sind und nicht ohne vollständige Neukonstruktion ihres Technologie-Stacks wechseln können. Das ist eine teure und ineffiziente Position. Durch Investitionen in modellunabhängige Infrastruktur können Unternehmen die besten Werkzeuge für ihre Bedürfnisse integrieren – sei es der Wechsel von ChatGPT zu DeepSeek oder die Übernahme eines völlig neuen Modells, das nächsten Monat veröffentlicht wird.
Ein AI-Modell, das heute bahnbrechend ist, kann in Wochen veraltet sein. Denken Sie an Hardware-Fortschritte wie GPUs – Unternehmen würden nicht ihr gesamtes Computersystem durch das neueste GPU ersetzen; stattdessen würden sie sicherstellen, dass ihre Systeme problemlos auf neuere GPUs umsteigen können. AI-Modelle erfordern die gleiche Anpassungsfähigkeit. Eine ordnungsgemäße Infrastruktur stellt sicher, dass Unternehmen ihre Modelle konsistent upgraden oder wechseln können, ohne ganze Workflows neu zu konstruieren.
Viel der aktuellen Unternehmens-Tooling ist nicht für AI konzipiert. Die meisten Daten-Tools – wie die, die Teil des traditionellen Analytics-Stacks sind – sind für code-lastige, manuelle Datenmanipulation konzipiert. Das Nachrüsten von AI in diese bestehenden Tools schafft oft Ineffizienzen und begrenzt das Potenzial fortschrittlicher Modelle.
AI-native-Tools hingegen sind speziell dafür entwickelt, nahtlos mit AI-Modellen zu interagieren. Sie vereinfachen Prozesse, reduzieren die Abhängigkeit von technischen Benutzern und nutzen die Fähigkeit von AI, nicht nur Daten zu verarbeiten, sondern auch handhabbare Erkenntnisse zu extrahieren. AI-native-Lösungen können komplexe Daten abstrahieren und sie für AI-zwecke wie Abfragen oder Visualisierung nutzbar machen.
Kernsäulen des AI-Infrastruktur-Erfolgs
Um Ihr Unternehmen zukunftssicher zu machen, priorisieren Sie diese grundlegenden Elemente für AI-Infrastruktur:
Datenabstraktions-Schicht
Denken Sie an AI als “super-kräftiges Kleinkind”. Es ist hochleistungsfähig, aber benötigt klare Grenzen und kontrollierten Zugriff auf Ihre Daten. Eine AI-native Datenabstraktions-Schicht fungiert als kontrolliertes Tor, das sicherstellt, dass Ihre LLMs nur auf relevante Informationen zugreifen und ordnungsgemäße Sicherheitsprotokolle einhalten. Sie kann auch konsistenten Zugriff auf Metadaten und Kontext ermöglichen, unabhängig von den verwendeten Modellen.
Erklärbarkeit und Vertrauen
AI-Ausgaben können oft wie schwarze Kisten wirken – nützlich, aber schwer zu vertrauen. Zum Beispiel müssen Sie, wenn Ihr Modell sechs Monate Kundenbeschwerden zusammenfasst, verstehen, wie diese Schlussfolgerung erreicht wurde und welche spezifischen Datenpunkte diese Zusammenfassung informiert haben.
AI-native-Infrastruktur muss Werkzeuge umfassen, die Erklärbarkeit und Begründung bieten – es ermöglicht Menschen, Modellausgaben zurück zu ihren Quellen zu verfolgen und den Grund für die Ausgaben zu verstehen. Dies erhöht Vertrauen und stellt sicher, dass Ergebnisse wiederholbar und konsistent sind.
Semantische Schicht
Eine semantische Schicht organisiert Daten so, dass sowohl Menschen als auch AI mit ihnen interagieren können. Sie abstrahiert die technische Komplexität von rohen Daten und präsentiert sinnvolle Geschäftsinformationen als Kontext für LLMs, während Geschäftsfragen beantwortet werden. Eine gut genährte semantische Schicht kann LLM-Halluzinationen erheblich reduzieren.
Zum Beispiel könnte eine LLM-Anwendung mit einer leistungsstarken semantischen Schicht nicht nur die Kunden-Abwanderungsrate analysieren, sondern auch erklären, warum Kunden gehen, basierend auf der Sentiment-Tagging in Kundenbewertungen.
Flexibilität und Agilität
Ihre Infrastruktur muss Agilität ermöglichen – es ermöglicht Organisationen, Modelle oder Werkzeuge basierend auf sich ändernden Bedürfnissen zu wechseln. Plattformen mit modularen Architekturen oder Pipelines können diese Agilität bieten. Solche Tools ermöglichen es Unternehmen, mehrere Modelle gleichzeitig zu testen und zu bereitstellen und dann die Lösungen zu skalieren, die den besten ROI demonstrieren.
Regierungsebenen für AI-Verantwortlichkeit
AI-Regierung ist das Rückgrat der verantwortungsvollen AI-Nutzung. Unternehmen benötigen robuste Regierungsebenen, um sicherzustellen, dass Modelle ethisch, sicher und innerhalb von Vorschriften verwendet werden. AI-Regierung verwaltet drei Dinge.
- Zugriffskontrollen: Wer kann das Modell verwenden und auf welche Daten kann es zugreifen?
- Transparenz: Wie werden Ausgaben generiert und können die Empfehlungen von AI auditiert werden?
- Risikominderung: Verhindern, dass AI unbefugte Entscheidungen trifft oder sensible Daten unsachgemäß verwendet.
Stellen Sie sich ein Szenario vor, in dem ein Open-Source-Modell wie DeepSeek Zugriff auf SharePoint-Dokumentbibliotheken erhält. Ohne Regierung in Kraft, kann DeepSeek Fragen beantworten, die sensible Unternehmensdaten enthalten, was möglicherweise zu katastrophalen Verletzungen oder irreführenden Analysen führen könnte, die das Unternehmen schädigen. Regierungsebenen reduzieren dieses Risiko und stellen sicher, dass AI strategisch und sicher über das gesamte Unternehmen hinweg eingesetzt wird.
Warum Infrastruktur besonders kritisch ist
Lassen Sie uns DeepSeek noch einmal betrachten. Während sein langfristiger Einfluss ungewiss bleibt, ist es klar, dass der globale AI-Wettbewerb zunimmt. Unternehmen, die in diesem Bereich tätig sind, können es sich nicht mehr leisten, auf Annahmen zu vertrauen, dass ein Land, ein Anbieter oder eine Technologie für immer die Vorherrschaft behalten wird.
Ohne robuste Infrastruktur:
- Unternehmen sind einem größeren Risiko ausgesetzt, mit veralteten oder ineffizienten Modellen festzustecken.
- Der Wechsel zwischen Tools wird zu einem zeitaufwändigen und teuren Prozess.
- Mannschaften fehlt die Fähigkeit, die Ausgaben von AI-Systemen klar zu überprüfen, zu vertrauen und zu verstehen.
Infrastruktur macht nicht nur die AI-Adoption einfacher – sie entfesselt das volle Potenzial von AI.
Strassen bauen anstelle von Motoren kaufen
Modelle wie DeepSeek, ChatGPT oder Gemini mögen Schlagzeilen machen, aber sie sind nur ein Teil des größeren AI-Puzzles. Der wahre Erfolg von Unternehmen in dieser Ära hängt von einer starken, zukunftssicheren AI-Infrastruktur ab, die Anpassungsfähigkeit und Skalierbarkeit ermöglicht.
Lassen Sie sich nicht von den “Ferraris” der AI-Modelle ablenken. Konzentrieren Sie sich auf den Bau der “Strassen” – der Infrastruktur – um sicherzustellen, dass Ihr Unternehmen jetzt und in der Zukunft florieren wird.
Um jetzt mit flexibler, skalierbarer Infrastruktur, die auf Ihr Unternehmen zugeschnitten ist, AI zu nutzen, ist es Zeit zu handeln. Bleiben Sie voraus und stellen Sie sicher, dass Ihre Organisation auf alles vorbereitet ist, was die AI-Landschaft als Nächstes bringt.












