Connect with us

Vordenker

2026 Prognose – Open Source wird auf der Welle von KI in ihr nächstes Goldenes Zeitalter reiten

mm
A widescreen, photorealistic digital landscape of a futuristic smart city where glowing data streams in various colors flow like highways between glass buildings and centralized glowing hubs.

IBMs 11-Milliarden-Dollar-Übernahme von Confluent , die Anfang Dezember angekündigt wurde, ist mehr als nur ein großer Konsolidierungsversuch in der Dateninfrastruktur: Es ist ein öffentliches Eingeständnis, dass künstliche Intelligenz (KI) fundamental ereignisgesteuert ist. Mit anderen Worten, diese Übernahme ist der Beweis, dass Unternehmen vertrauenswürdige Daten-in-Bewegung benötigen, ebenso wie Daten-im-Ruhezustand. Da Unternehmen im Jahr 2025 hastig daran gearbeitet haben, KI-Agenten über ihre Betriebe zu verteilen, hebt der Deal eine kritische Erkenntnis hervor: Echtzeit-Kontext ist das fehlende Ingredienz, um agentenbasierte KI auf Unternehmensskala funktionieren zu lassen.

Die eigene Darstellung von IBM offenbart den strategischen Wandel. Sie positionieren das kombinierte Unternehmen als “intelligentes Datenplattform für KI-Agenten” – Infrastruktur, die Daten in Echtzeit verbinden, verarbeiten und regeln kann, damit Agenten nahtlos über hybride Umgebungen hinweg operieren können. Es geht hier nicht darum, mehr Streaming-Infrastruktur zu verkaufen. Es geht darum, anzuerkennen, dass KI-Agenten kontinuierlichen, frischen Kontext benötigen, um zuverlässig zu funktionieren, und dass Streaming-Daten die Plumbing sind, die es ermöglichen.

Das Paradoxon im Herzen der Unternehmens-KI

IBMs Übernahme hebt auch ein faszinierendes Paradoxon in der Dateninfrastruktur-Landschaft hervor. In den letzten Jahren zogen einige Infrastruktur-Anbieter sich aus Open Source zurück, änderten Lizenzen und zogen sich in proprietäre Modelle zurück, um eine stärkere Monetarisierung zu verfolgen. Doch die Adoption von KI zwingt die Ökosysteme zurück in Richtung Offenheit. Warum? Agenten benötigen interoperable Pipelines, Konnektoren und Governance über viele Systeme hinweg – nicht nur einen einzigen proprietären Stack.

Der Aufstieg leistungsstarker Open-Source-Large-Language-Modelle (LLMs) hat das gesamte KI-Ökosystem in Richtung Transparenz und Portabilität gedrängt. Modelle wie Llama, Mistral und viele andere bieten Unternehmen günstigere und bessere Alternativen zu geschlossenen Modellen. Dies schafft Spannung: Dateninfrastruktur-Anbieter schließen ihre Gärten, während die KI-Unternehmen, die ihre Produkte konsumieren, ihre Gärten öffnen. IBMs Übernahme von Confluent signalisiert den Beginn eines Resets, bei dem der Zug von KI die Infrastruktur zurück in Richtung Offenheit zwingt.

Kontext-Management: Die Unternehmensfähigkeit, die KI fordert

Um zu verstehen, warum, müssen wir über das sprechen, was ich “Kontext-Management” nenne – eine Unternehmensfähigkeit, um den relevantesten, zuverlässigsten und aufbewahrten Kontext zu liefern, um Modell-Kontext-Fenster zu liefern. Dies ist nicht nur eine ad-hoc-Implementierung von Retrieval-Augmented-Generation (RAG), die über verschiedene Teams verstreut ist. Es ist ein systematischer Ansatz, um sicherzustellen, dass KI-Agenten Zugang zu den Informationen haben, die sie benötigen, wenn sie sie benötigen, mit ordnungsgemäßer Governance und Herkunft.

Hier ist ein einfaches mentales Modell: Agenten laufen auf Kontext. Kontext läuft auf Pipelines.

Die Kontext-Pipeline sieht wie folgt aus:

Quellen → Streaming → Speicherung (Lakehouse/OLTP) → Indexierung (Vektor + lexikalisch + SQL) → Richtlinie/Governance → Servieren → Beobachtbarkeit/Bewertungen.

Jede Ebene muss zuverlässig funktionieren, und sie müssen zusammenarbeiten. Streaming ist die Grundlage, da es die kontinuierliche Frische liefert, die Agenten benötigen.

Traditionelle RAG-Ansätze sind oft reaktiv – sie holen Kontext, wenn sie aufgerufen werden. Aber Agenten benötigen auch proaktive Updates: Ereignisse, die kontinuierlich das Gedächtnis aktualisieren, Retrieval-Indizes aktualisieren, Berechtigungen anpassen und Richtlinien durchsetzen. Confluents Übernahme durch IBM ist im Grunde ein Wetten auf diese “immer-aktualisierte Kontext-Ebene”, die zu kritischer Infrastruktur für Unternehmens-KI wird.

Warum Agenten fehlschlagen (Und warum es wichtig ist)

Unternehmens-KI-Teams entdecken diese unglückliche Wahrheit auf die harte Tour: Agenten scheitern nicht, weil das LLM “dumm” ist. Sie scheitern, weil der zugrunde liegende Kontext gebrochen, veraltet, unvollständig oder ungeregt ist. Tatsächlich schätzen Analysten, dass bis zu 60 % der KI-Projekte aufgrund fehlender KI-fähiger Daten aufgegeben werden. Ein Agent, der auf der Grundlage von gestriger Inventardaten Einkaufsentscheidungen trifft, ist nicht hilfreich. Ein Agent, der auf Kundendaten ohne ordnungsgemäße Autorisierung zugreift, ist ein Compliance-Albtraum. Ein Agent, der seine Begründung nicht erklären kann, ist in regulierten Branchen nicht einsetzbar.

Unternehmen können KI-Entscheidungen nicht auditen, ohne Herkunftsnachweis. Sie können KI-Anwendungen nicht skaliert bereitstellen, ohne konsistente Datenfrische. Sie können Agenten nicht zuverlässig bereitstellen, ohne ordnungsgemäße Governance-Schutzvorkehrungen. All diese Anforderungen deuten auf das gleiche Ergebnis hin: Kontext-Management muss zu einer ersten Infrastruktur werden, nicht zu einem Nachgedanken.

Die Open-Source-Renaissance

Hier beginnt die Open-Source-Renaissance. Kontext umfasst zu viele Anbieter und Systeme, um ein einzelner proprietärer Stack zu gewinnen. Der erfolgreiche Ansatz wird Open-Interfaces plus portable Bausteine sein: Konnektoren, Streaming-Plattformen, Metadaten-Management, Retrieval-Systeme und Richtlinien-Durchsetzung. Geschlossene Lizenzen verlangsamen die Integration – und Integration ist das gesamte Spiel in agentenbasierter KI.

IBM versteht dies. Ihre Geschichte mit Open Source (insbesondere durch Red Hat) gibt ihnen Glaubwürdigkeit. Das kombinierte IBM-Confluent-Unternehmen ist positioniert, um das zu beschleunigen, was sie “ereignisgesteuerte Intelligenz” nennen, indem sie Offenheit dort annehmen, wo es zählt: an den Integrationspunkten, an denen verschiedene Systeme nahtlos zusammenarbeiten müssen.

Wir sehen bereits, wie sich dieser Wandel abspielt. Open-Source-Streaming-Plattformen, offene Tabellenformate wie Apache Iceberg und Delta Lake und offene Standards für Metadaten und Governance werden zum Bindegewebe der Unternehmens-KI-Infrastruktur. Organisationen fordern Portabilität und Interoperabilität, weil sie wissen, dass sie mit mehreren KI-Modellen, mehreren Datenlagern und mehreren Tools arbeiten werden. Lock-in ist der Feind der Flexibilität, die sie benötigen.

Eine Prognose für 2026

Bis Ende 2026 werde ich vorhersagen, dass “Kontext-Management” als benannte Kategorie in Unternehmens-Technologie-Stapeln auftauchen wird. Käufer werden drei Dinge fordern:

  • Erstens offene Konnektoren und “bring-your-own”-Architekturen für Datenlager und Indizes. Kein einziger Anbieter wird die gesamte Kontext-Pipeline kontrollieren.
  • Zweitens standardisierte Kontext-APIs über Tools hinweg. Teams müssen in der Lage sein, Komponenten auszutauschen, ohne ganze Systeme neu aufzubauen.
  • Drittens geregelter Herkunftsnachweis als Standard, nicht als Nachrüstung. Jedes Stück Kontext benötigt eine klare Herkunft, und jede Agenten-Entscheidung benötigt eine Audit-Spur.

Dies sind keine Nice-to-Haves. Sie sind die Grundvoraussetzungen für die Unternehmens-KI-Adoption im großen Maßstab.

Der Reset beginnt

IBMs Kauf von Confluent markiert den Beginn eines grundlegenden Resets in der Dateninfrastruktur. Der Schwung von KI, getrieben durch die Notwendigkeit von komplexen Agenten, die in frischem, zuverlässigem Kontext operieren, zwingt die Branche zurück in Richtung Offenheit. Ob dies reiner Open Source oder mindestens offene und durchsetzbare Interoperabilität ist, hängt davon ab, wie sich der Markt entwickelt. Aber die Richtung ist klar.

Die Anbieter, die in dieser neuen Ära gedeihen, werden nicht diejenigen sein, die die meisten geschlossenen, proprietären Stacks haben. Sie werden diejenigen sein, die Offenheit auf der Integrations-Ebene annehmen, die echte Interoperabilität bieten und Unternehmen helfen, Kontext-Management-Fähigkeiten ohne künstliche Einschränkungen aufzubauen.

Die nächste Welle der Innovation wird von Open-Source-KI-Infrastruktur kommen, die es Unternehmen ermöglicht, komplexe Agenten und Anwendungen ohne Vendor-Lock-in aufzubauen. Das ist nicht Idealismus – das ist Pragmatismus. Denn wenn man mission-kritische KI-Systeme aufbaut, die das gesamte Unternehmen umspannen müssen, ist Offenheit keine Philosophie. Sie ist eine Anforderung.

Sijie Guo ist der Gründer und CEO von StreamNative. Sijies Reise mit Apache Pulsar begann bei Yahoo!, wo er Teil des Teams war, das an einer globalen Messaging-Plattform für das Unternehmen arbeitete. Er wechselte dann zu Twitter, wo er die Messaging-Infrastrukturgruppe leitete und DistributedLog und Twitter EventBus mitentwickelte. 2017 gründete er Streamlio, das von Splunk übernommen wurde, und 2019 gründete er StreamNative. Er ist einer der ursprünglichen Ersteller von Apache Pulsar und Apache BookKeeper und bleibt VP von Apache BookKeeper und PMC-Mitglied von Apache Pulsar. Sijie lebt in der San Francisco Bay Area in Kalifornien.