Vernetzen Sie sich mit uns

Vordenker

Prognosen für 2026: Von der Kommerzialisierung des LLM zum Zeitalter des agentischen Gedächtnisses

mm

Anfang 2025 sagte ich die Kommerzialisierung großer Sprachmodelle voraus.

Da die Tokenpreise einbrachen und Unternehmen von der Experimentierphase zur Produktion übergingen, wurde diese Vorhersage schnell Realität und veränderte die Art und Weise, wie KI-Systeme bis ins Jahr 2026 entwickelt und verwaltet werden.

Was 2025 richtig gemacht hat

Mehrere Trends, die letztes Jahr noch ungewiss schienen, haben sich nun realisiert.

Zunächst bildeten LLMs die Grundlage der KI-Infrastruktur. Kostensenkungen und verbesserte Inferenz-Pipelines haben viele Workloads in die Produktion überführt, insbesondere für einfachere Aufgaben wie Entitätsextraktion, Klassifizierung und Zusammenfassung. Die Frage für Unternehmen lautet nicht mehr „Welches Modell sollen wir verwenden?“, sondern „Wie entwickeln wir Systeme, die auch bei einem Modellwechsel bestehen können?“

Zweitens haben Agenten bewiesen, dass sie große Mengen an Unternehmenstexten verarbeiten können. Führungskräfte stehen weiterhin vor der Herausforderung, die Unübersichtlichkeit der Compliance-Dokumentation zu bewältigen, wenn sie Daten für fundierte Entscheidungen extrahieren wollen. Kommunikationsdaten, die zuvor in E-Mails, Tickets und Chatprotokollen unbeachtet blieben, werden nun aktiv von Agenten genutzt, um Erkenntnisse und Empfehlungen zu gewinnen. Dies ähnelt der ersten Big-Data-Welle der frühen 2010er-Jahre, als kostengünstiger Speicherplatz und neue Tools bisher ungenutzte Datensätze zugänglich machten.

Drittens erlebte symbolisches Wissen eine stille Renaissance. Wissensgraphen, die einst als kostspielig und fragil galten, haben durch sie neues Leben gefunden. GraphRAG und agentengesteuerte Extraktion. Unvollkommene Graphen haben sich als nützlich erwiesen. Iteration ist heute wichtiger als anfängliche Perfektion. Dies ist nicht nur ein Rebranding, sondern ein echter Wandel in der Zusammenarbeit symbolischer und statistischer Systeme.

Schließlich haben Feintuning hat wieder an Bedeutung gewonnen. Da das kontextbezogene Lernen bei latenzkritischen und rechenintensiven Aufgaben an seine Grenzen stieß, sind kleinere, spezialisierte Modelle wieder attraktiv geworden. Die Branche hat eine alte Erkenntnis wiederentdeckt: Nicht jedes Problem erfordert ein riesiges Universalmodell.

Diese Trends sind zwar unerlässlich geworden, der eigentliche Wendepunkt wird aber im Jahr 2026 eintreten.

Agentisches Gedächtnis wird grundlegend

Im Jahr 2026 werden Agenten aufhören, zustandslose Werkzeuge zu sein, und sich wie Systeme mit Speicher verhalten.

Hier liegt die Idee von agentisches Gedächtnis Es entsteht etwas Neues. Auch wenn es naheliegend erscheint, dies als eine Neuauflage von Wissensgraphen zu bezeichnen, greift diese Sichtweise zu kurz. Agentisches Gedächtnis ist eine Weiterentwicklung. Es kombiniert strukturierte symbolische Repräsentationen mit der Fähigkeit von Agenten, zu argumentieren, sich zu aktualisieren und im Laufe der Zeit zu handeln.

Das Gedächtnis ist es, das Agenten von reaktiven Bedienern zu entscheidungsfähigen Systemen macht. Ohne es wiederholen Agenten Arbeitsschritte, verzerren den Kontext und lernen nicht aus vergangenen Aktionen. Mit ihm können Unternehmen KI-Systeme entwickeln, die institutionelles Wissen sammeln, anstatt es bei jeder Eingabe zu verwerfen.

Modellverschmelzung ersetzt Modellverehrung

Eine der am wenigsten beachteten Entwicklungen ist der Aufstieg von Modellfusion und verteiltem Training. Anstatt monolithische Modelle von Anfang bis Ende zu trainieren, zerlegen Forscher das Problem zunehmend. Kleinere, spezialisierte Modelle werden unabhängig voneinander trainiert und anschließend kombiniert.

Dieser Ansatz tauchte zunächst in Forschungswettbewerben und experimentellen Herausforderungen auf. Im Jahr 2025 entwickelte er sich zu umfassenden Tutorials und produktionsreifen Pipelines. Öffentliche Beispiele, darunter verteilte Trainingsexperimente von Cohere, deuten auf einen breiteren Wandel hin.

Bis 2026 wird ein echter Markt für kleinere Sprachmodelle entstehen, die Unternehmen selbst entwickeln, zusammenstellen und anpassen können. Der Schwerpunkt verschiebt sich von der Frage „Wer hat das größte Modell?“ hin zu „Wer kann das effektivste System zusammenstellen?“.

KI für die Wissenschaft verlässt das Labor

KI in der Wissenschaft ist längst nicht mehr nur ein Forschungsthema. Im Jahr 2025 zogen Workshops in Physik, Biologie und Materialwissenschaften auf großen Konferenzen unerwartet viele Teilnehmer an. Wohlhabende Stiftungen und private Spender begannen, großangelegte wissenschaftliche KI-Projekte zu finanzieren. Startups entstanden mit einem klaren Fokus auf Wirkstoffforschung, Materialdesign und Simulation.

Ab 2026 wird sich die Wertschöpfung bemerkbar machen. Beschleunigt KI die Entdeckung eines neuen Antibiotikums, einer Krebsbehandlung oder eines neuartigen Materials, übersteigt der Nutzen die Rechenkosten. Damit zählt wissenschaftliche KI zu den wirtschaftlich sinnvollsten Anwendungen in diesem Bereich.

Künstliche Intelligenz wird jedoch nicht auf magische Weise neue physikalische Gesetze hervorbringen. AlphaFold war erfolgreich, weil das Problem klar definiert war. Der Physik fehlt noch immer der „Hilbert-Moment“ – eine eindeutige, gemeinsame Definition der Kernprobleme, die es zu lösen gilt. Die Definition der richtigen Probleme bleibt eine menschliche Aufgabe.

Der Nachweis der Content-Erstellung gewinnt an Bedeutung

Eine der überraschendsten Erkenntnisse des vergangenen Jahres stammte nicht von Technologen, sondern von Soziologen.

Das größte Risiko generativer KI ist nicht der Verlust von Arbeitsplätzen. Es ist die Aushöhlung von Beweisen. Beweisen für Urheberschaft. Beweisen für Arbeit. Beweisen für Authentizität. Beweisen für Menschlichkeit.

Da KI-generierte Inhalte alle Medien überschwemmen, werden Gesellschaften neue Mechanismen fordern, um die Urheberschaft zu überprüfen. Hier kommen Ideen aus der Kryptographie und Blockchain wieder ins Spiel – nicht als spekulative Anlagen, sondern als Infrastruktur für Zuordnung und Verifizierung.

Künstliche Intelligenz könnte der Katalysator sein, der diesen Systemen endlich einen echten Sinn verleiht.

Agenten lernen durch Werkzeuge, nicht durch Texte.

LLMs, die mit Tools ausgestattet sind, unterscheiden sich grundlegend von Chatbots. Das wichtigste Tool für Agenten ist heutzutage das Terminal.

Benchmarks wie Terminal Bench formalisieren diesen Wandel. Agenten, die mit Kommandozeilen, APIs und Umgebungen interagieren können, lernen durch praktische Anwendung. Frontier Labs investiert mittlerweile Hunderte Millionen Dollar in die Beschaffung anspruchsvoller Aufgabendaten, um diese Agenten zu trainieren.

Die Datensätze sind privat und fragmentiert, was eine wichtige Folge hat: Modelle werden nicht mehr einheitlich denken. Mit zunehmender Divergenz der Trainingsdaten entwickeln innovative Modelle unterschiedliche Fähigkeiten und Denkstile. Homogenität war ein vorübergehendes Artefakt gemeinsam genutzter Daten. Diversität kehrt zurück.

Während sich Programmierassistenten wie Claude Code und OpenAI Codex stetig verbessern, gewinnen wir Menschen daraus Wissen in Form von Software. Dies ähnelt zunehmend dem, was manche als Software-Destillerie bezeichnen: Große Modelle helfen bei der Entwicklung von Systemen, die anschließend in kostengünstigere, aufgabenspezifische Software umgewandelt werden. Diese ist rechentechnisch effizienter auf CPUs als die direkte Ausführung durch moderne Modelle. Sollte die Token-Generierung deutlich günstiger und Programmierassistenten wesentlich ausgefeilter werden, könnte Software selbst bald der Vergangenheit angehören, da menschliches Eingreifen notwendig sein könnte. Diese Vorstellung mag heute unwahrscheinlich erscheinen, doch das wäre in den 1960er-Jahren ebenso abwegig gewesen, als man sich vorstellte, dass Milliarden von Transistoren eines Tages in ein Mobiltelefon passen würden.

Blick in die Zukunft

Wenn 2025 das Jahr war, in dem LLM-Studiengänge günstig wurden, wird 2026 das Jahr sein, in dem Intelligenz strukturiert wird.

Die Gewinner werden nicht diejenigen mit den größten Modellen sein, sondern diejenigen, die Systeme entwickeln, die sich erinnern, schlussfolgern, Eigenschaften zuordnen und sich weiterentwickeln. Bei KI geht es nicht mehr so ​​sehr um reine Fähigkeiten, sondern vielmehr um Architektur.

Und genau dort werden die nächsten wirklichen Fortschritte stattfinden.

Nikolaos Vasiloglou ist Vizepräsident für Forschung im Bereich Maschinelles Lernen bei Relationale KIEr hat seine berufliche Laufbahn der Entwicklung von ML-Software und der Leitung von Data-Science-Projekten in den Bereichen Einzelhandel, Online-Werbung und Sicherheit gewidmet. Er ist Mitglied von ICLR/ICML/NeurIPS/UAI/MLconf.Nikolaos ist Mitglied der KGC/IEEE S&P-Community und war als Autor, Gutachter und Organisator von Workshops und der Hauptkonferenz tätig. Er leitet die Forschungs- und Strategieinitiativen an der Schnittstelle von großen Sprachmodellen und Wissensgraphen für RelationalAI.