Tankeledere
2026-prædiktion – Open Source vil ride på AI’s bølge ind i dens næste gyldne æra

IBM’s $11 milliarder køb af Confluent annonceret i begyndelsen af december, er mere end en stor konsolidering i data-infrastruktur: det er en offentlig erkendelse af, at Kunstig Intelligens (AI) i bund og grund er begivenhedsdrevet. Med andre ord, denne overtagelse er bevis for, at virksomheder har brug for tillid til data-i-bevægelse ligesom data-i-rov. Da organisationer har skyndt sig at implementere AI-agenter på tværs af deres operationer i 2025, fremhæver aftalen en kritisk erkendelse: real-time kontekst er den manglende ingrediens i at gøre agentic AI arbejde på virksomheds-skala.
IBM’s egen fremstilling afslører den strategiske skift. De positionerer den kombinerede enhed som en “smart data-platform for AI-agenter” – infrastruktur, der kan tilslutte, behandle og styre data i realtid, så agenter kan fungere ubesværet på tværs af hybrid-miljøer. Dette handler ikke om at sælge mere streaming-infrastruktur. Det handler om at anerkende, at AI-agenter har brug for kontinuerlig, frisk kontekst for at fungere pålideligt, og at streaming-data er røret, der gør det muligt.
Paradokset i hjertet af Enterprise AI
IBM’s overtagelse af Confluent fremhæver også et fascinerende paradoks i data-infrastruktur-landskabet. Over de seneste par år har nogle infrastruktur-virksomheder trukket sig tilbage fra open source, ændret licenser og trukket sig tilbage til proprietære modeller i jagten på stærkere monetering. Men AI-adoptionskraften tvinger økosystemerne tilbage mod åbenhed. Hvorfor? Agenter har brug for interoperable rørledninger, tilslutninger og styre på tværs af mange systemer – ikke en enkelt vendors lukkede stak.
Opkomsten af kraftfulde open-source Large Language Models (LLM) har skubbet hele AI-økosystemet mod gennemsigtighed og bæring. Modeller som Llama, Mistral og mange andre giver virksomheder billigere og bedre alternativer til lukkede modeller. Dette skaber spænding: data-infrastruktur-virksomheder lukker deres haver, samtidig med at AI-virksomhederne, der forbruger deres produkter, åbner deres. IBM’s overtagelse af Confluent signalerer begyndelsen på en nulstilling, hvor AI’s træk kraft tvinger infrastruktur tilbage mod åbenhed.
Kontekststyring: Den virksomhedsfunktion AI kræver
For at forstå, hvorfor, må vi tale om, hvad jeg kalder “kontekststyring” – en virksomhedsfunktion til at levere den mest relevante, pålidelige og fastholdte kontekst til model-kontekstvinduer. Dette er ikke bare ad-hoc Retrieval-Augmented Generation (RAG) implementeringer spredt ud over forskellige hold. Det er en systematisk tilgang til at sikre, at AI-agenter har adgang til den information, de har brug for, når de har brug for det, med korrekt styre og proveniens.
Her er en simpel mental model: Agenter kører på kontekst. Kontekst kører på rørledninger.
Kontekstrøret ser således ud:
kilder → streaming → lagring (lakehouse/OLTP) → indeksering (vektor + leksikal + SQL) → politik/styre → servering → overvågning/evaluering.
Hver lag har brug for at fungere pålideligt, og de har brug for at fungere sammen. Streaming sidder på fundamentet, fordi det giver den kontinuerlige friskhed, som agenter kræver.
Traditionelle RAG-tilgange er ofte reaktive – de henter kontekst, når de bliver bedt om det. Men agenter har også brug for proaktive opdateringer: begivenheder, der kontinuerligt opdaterer hukommelse, opdaterer hentningsindeks, tilpasser tilladelser og gennemtvinger politikker. Confluent’s overtagelse af IBM er fundamentalt et væddemål på, at “altid-opdaterings-kontektslaget” bliver kritisk infrastruktur for virksomheds-AI.
Hvorfor Agenter Fejler (Og Hvorfor Det Er Vigtigt)
Virksomheds-AI-hold opdager denne ulykkelige sandhed på den hårde måde: agenter fejler ikke, fordi LLM er “dum”. De fejler, fordi den underliggende kontekst er knækket, stædig, ufuldstændig eller ustaltet. Faktisk estimerer analytikere, at op til 60% af AI-projekter vil blive opgivet på grund af mangel på AI-klar data. En agent, der tager indkøbsbeslutninger baseret på i går’s lagerdata, er ikke nyttig. En agent, der får adgang til kunderekorder uden korrekt autorisation, er en overholdelsesmæssig mareridt. En agent, der ikke kan forklare sin begrundelse, er ubrugelig i regulerede industrier.
Virksomheder kan ikke gennemføre AI-beslutninger uden proveniens. De kan ikke skala AI-applikationer uden konsekvent data-friskhed. De kan ikke implementere agenter med tillid uden korrekt styre-vagter. Alle disse krav peger på samme konklusion: kontekststyring har brug for at blive førsteklasses-infrastruktur, ikke en eftertanke.
Den Åbne Kilde-Renaissance
Dette er, hvor den åbne kilde-renaissance begynder. Kontekst omfatter for mange virksomheder og systemer til, at en enkelt proprietær stak kan vinde. Den succesfulde tilgang vil være åbne grænseflader plus bærbare byggeklodser: tilslutninger, streaming-platforme, metadata-styring, hentningssystemer og politik-gennemtvingelse. Lukkede licenser afbremser integration – og integration er hele spillet i agentic AI.
IBM forstår dette. Deres historie med open source (især gennem Red Hat) giver dem troværdighed. Den kombinerede IBM-Confluent-enhed er positioneret til at accelerere, hvad de kalder “begivenhedsdrevet intelligens” ved at omfavne åbenhed, hvor det er vigtigt: på integrationspunkterne, hvor forskellige systemer har brug for at fungere sammen ubesværet.
Vi ser allerede dette skift udspille sig. Åbne kilde-streaming-platforme, åbne tabel-formater som Apache Iceberg og Delta Lake, og åbne standarder for metadata og styre bliver det forbinderende væv i virksomheds-AI-infrastruktur. Organisationer kræver bæring og interoperabilitet, fordi de ved, de vil arbejde med multiple AI-modeller, multiple data-lagre og multiple værktøjer. Låsning er fjenden af den fleksibilitet, de har brug for.
En Prædiktion For 2026
Inden udgangen af 2026 forudser jeg, at “kontekststyring” vil opstå som en navngivet kategori i virksomheds-teknologistakke. Købere vil kræve tre ting:
- Først, åbne tilslutninger og “bring-your-own”-arkitekturer for data-lagre og indeks. Ingen enkelt vendor vil kontrollere hele kontekstrøret.
- Anden, standardiserede kontekst-API’er på tværs af værktøjer. Hold har brug for at kunne bytte komponenter uden at genopbygge hele systemer.
- Tredje, styret proveniens som standard, ikke en bolt-på. Hver del af kontekst har brug for en klar afstamning, og hver agent-beslutning har brug for en revisions-spor.
Disse er ikke dejlige-at-haves. De er grundlæggende krav for virksomheds-AI-adoptions-skala.
Nulstillingen Begynder
IBM’s køb af Confluent markerer begyndelsen på en fundamental nulstilling i data-infrastruktur. AI’s momentum, drevet af behovet for sofistikerede agenter, der opererer i frisk, pålidelig kontekst, tvinger branchen tilbage mod åbenhed. Uanset om det er ren åben kilde eller i det mindste åben og gennemtvingelig interoperabilitet, afhænger af, hvordan markedet udvikler sig. Men retningen er klar.
De virksomheder, der trives i denne nye æra, vil ikke være dem med de mest lukkede, proprietære stakke. De vil være dem, der omfavner åbenhed på integrationsslaget, som giver ægte interoperabilitet og hjælper virksomheder med at bygge kontekststyrings-funktioner uden kunstige begrænsninger.
Den næste bølge af innovation kommer fra åben kilde-AI-infrastruktur, der giver virksomheder mulighed for at bygge sofistikerede agenter og applikationer uden vendor-låsning. Det er ikke idealisme – det er pragmatisme. For når du bygger mission-kritiske AI-systemer, der har brug for at omfatte hele virksomheden, er åbenhed ikke en filosofi. Det er et krav.












