Interviews
Shane Eleniak, Chief Product Officer at Calix – Interview Series

Shane Eleniak ist Chief Product Officer bei Calix, wo er die strategische Vision und Umsetzung der branchenführenden Plattform und SaaS-Lösungen des Unternehmens leitet. Mit dem Fokus darauf, Kommunikationsdienstleister zu ermöglichen, ihr Geschäft zu vereinfachen und außergewöhnliche Abonnentenerfahrungen zu liefern, überwacht Shane den gesamten Produktlebenszyklus – von der Konzeption bis zur marktführenden Bereitstellung.
Unter seiner Führung hat Calix seine Position als Pionier in der Breitbandindustrie gefestigt und konsistent innovative Tools geliefert, die Anbietern ermöglichen, zu konkurrieren und zu gewinnen.
Calix ist ein in den USA ansässiges Technologieunternehmen, das Cloud-, Software- und Managed-Service-Plattformen für Breitband- und Kommunikationsdienstleister bereitstellt. Sein Kernangebot konzentriert sich auf eine künstliche Intelligenz-basierte Breitbandplattform, die Cloud-Infrastruktur, Daten und Netzwerksysteme integriert, um Anbietern zu helfen, ihre Betriebsabläufe zu vereinfachen, die Kundenbindung zu verbessern und personalisierte digitale Erfahrungen zu liefern. Indem Calix Anbietern hilft, von grundlegenden Konnektivitätsdiensten zu vollständigen “Erfahrungsanbietern” zu wechseln, hilft das Unternehmen ihnen, Umsatz zu steigern, die Abonnententreue zu erhöhen und die digitale Transformation von Gemeinschaften durch fortschrittlichere, skalierbarere Breitbanddienste zu unterstützen.
Ihre Karriere umfasst mehr als drei Jahrzehnte in den Bereichen Ingenieurwesen, Networking, Cloud-Plattformen und groß angelegte Produktführung. Wie haben diese Erfahrungen Ihre Perspektive darauf geprägt, was es wirklich braucht, um künstliche Intelligenz dazu zu bringen, in Unternehmen echte Arbeit zu leisten, anstatt nur ein Seitenexperiment zu bleiben?
Ich begann in der traditionellen Telekommunikation und im Networking, wo das ganze Spiel der Datenpfad und die Zuverlässigkeit im großen Maßstab waren. Wenn Sie keinen sauberen, zuverlässigen Dienst liefern können, ist nichts, was Sie darauf aufbauen, wirklich wichtig. Damals war das Telefon an der Küchenwand, die Inneneinrichtung bewegte sich nie, und solange es einen Klingelton gab, war alles in Ordnung.
Breitband und das Internet haben das alles geändert. Plötzlich war es nicht mehr nur “ist es an?” Es war Ethernet und dann Wi-Fi, Kinder auf Gaming-Konsolen und Tablets, Sie auf einem Zoom-Call, der auf einer Cloud-Tabelle zusammenarbeitet, und ständige Mobilität – Geräte im Haus, im Hinterhof, beim Fußballspiel, im Coffee-Shop. Die Abonnentenerfahrung wurde viel komplexer als ein binärer An/Aus-Zustand, und die Welt für Dienstleister wurde sehr dynamisch. In dieser Welt reicht ein Rückblick auf die Daten – klassische Data-Warehouses und historische Berichte einen Monat später – nicht aus. Sie müssen Daten sammeln, die Erfahrung verstehen und Erkenntnisse in Echtzeit generieren, da Abonnenten jetzt erwarten, dass Probleme proaktiv gelöst werden, nicht in Stunden oder Tagen.
Diese Evolution hat meine Art und Weise geprägt, über künstliche Intelligenz nachzudenken. Die meisten Menschen wollen künstliche Intelligenz “oben” platzieren, genauso wie sie Business-Intelligence oder SaaS auf bestehende Data-Lakes setzen. Meine Erfahrung sagt mir, dass man viel tiefer als das denken und für Echtzeit-Erkenntnisse und die Fähigkeit zu zeitnahen Aktionen entwerfen muss.
Für Abonnenten hat sich die Erwartung in den letzten 25 Jahren nicht viel geändert. Sie wollen immer noch sichere, gemanagte Konnektivität, die so einfach wie ein Klingelton ist – sie wollen, dass alles “einfach funktioniert”, ohne über all die Schichten und Komplexität nachzudenken, und sie wollen es überall in ihrem Leben. Meine Karriere in der Telekommunikation und in der Cloud hat mich sehr vertraut gemacht mit diesem Paradox: Sie bauen extrem komplexe Systeme, um all das wegzunehmen und eine einfache, großartige Erfahrung am Rand zu liefern. So denke ich über künstliche Intelligenz nach, die in jedem Unternehmen, ob Breitband oder nicht, echte Arbeit leistet.
Bei Calix betonen Sie oft, dass operationale künstliche Intelligenz gebaut und nicht gekauft wird. Welche sind die häufigsten Fehler, die Organisationen machen, wenn sie versuchen, künstliche Intelligenz hinzuzufügen, ohne die Arbeitsabläufe im Unternehmen zu überdenken?
Für mich geht es weniger um “gebaut versus gekauft” und mehr darum, ob Sie einen Schritt zurückgetreten sind und den gesamten Tech-Stack betrachtet haben. Viele Unternehmen haben beschlossen, dass künstliche Intelligenz einfach darin besteht, einige APIs zu verwenden, um Zugang zu einem LLM zu erhalten, es in ihren Stack mit einem Wrapper zu verbinden und Token zu kaufen – dann hatten sie eine künstliche Intelligenz-Strategie. So funktioniert das nicht.
Viele von uns werden von der Technologie fasziniert, anstatt vom Ergebnis. Wir haben diesen Film bereits gesehen. Als PCs aufkamen, wollte jeder darüber diskutieren, ob man einen 286er oder 386er hatte, wie viel Speicher er hatte und welches DOS er lief. Heute kann niemand die Spezifikationen seines Laptops oder seines Telefons nennen, und niemand interessiert sich dafür, bis es aufhört, das zu tun, was er braucht. Was zählt, ist: Macht es mich in meinem Job effektiver? Es ist dasselbe mit künstlicher Intelligenz. Wenn Sie es nicht an reale Arbeitsabläufe, reale Werte und reale ROI binden können, sind die Tech-Spezifikationen nur Rauschen.
Ein weiterer großer Fehler ist der Versuch, künstliche Intelligenz auf das zu bolzen, was Sie bereits haben, ohne zu fragen, was es mit Ihrer Architektur, Ihrem Sicherheitsmodell und Ihren Kosten macht. Künstliche Intelligenz ist eine grundlegende Technologie, kein inkrementales Feature-Upgrade. Wenn Sie sie als inkrementell behandeln, enden Sie mit schlechten Daten, Sicherheitsproblemen, Halluzinationen, außer Kontrolle geratenen Kosten oder viel Aktivität, die niemandem ein Problem löst.
Schließlich können Sie den Kontext und die Bedeutung vertikaler Expertise nicht ignorieren. Aktion ist alles über Kontext, und dieser Kontext unterscheidet sich zwischen Telekommunikation, Finanztechnologie und Gesundheitswesen. Bei Calix begannen wir mit tiefgreifender Erfahrung in einer Branche und bauten eine vertikale Plattform darum herum. Wir verstanden bereits die Daten, Erkenntnisse, Arbeitsabläufe und den Kontext, so dass der Stack diese Realität widerspiegeln konnte. Die meisten Unternehmen kennen ihre vertikale Branche in- und auswendig. Die Chance besteht darin, diese Kenntnisse in einen vertikalen Tech-Stack zu kodifizieren, anstatt auf eine dünne horizontale Schicht und ein generisches künstliches Intelligenz-Modell zu vertrauen und dann alles zusammenzufügen. Unternehmen sind um Ergebnisse bemüht, nicht um Modelle. Die eigentliche Frage ist, wie diese Technologie hilft, diese Ergebnisse in der Art und Weise zu liefern, wie die Arbeit fließt.
Sie haben eine fünfschichtige Architektur für operationale künstliche Intelligenz skizziert, die Daten, Wissen, Orchestrierung, Vertrauen und Aktion umfasst. Warum ist es wichtig, diese Schichten explizit zu trennen, und welche Schicht unterschätzen Unternehmen am häufigsten oder überspringen sie ganz?
Seit langem war der Stack ziemlich einfach: Daten, Erkenntnisse, Dashboards, Arbeitsabläufe, Menschen. Sie bauten Data-Warehouses, setzten Business-Intelligence darauf, erstellten Workflow-Engines und überließen die harte Arbeit den Menschen. In einer agentischen Welt hält das nicht stand. Sie benötigen Daten, Wissen, Orchestrierung, Vertrauen und Aktion, da jede Schicht eine unterschiedliche Funktion ausführt.
Der sichtbare Teil, über den jeder sprechen möchte, ist die Aktionsebene – die Agenten. Das ist die Spitze des Eisbergs. Was bestimmt, ob Sie jemals Agenten realen Systemen zugänglich machen können, ist all das “langweilige” Zeug unter der Wasserlinie: Datenpipelines und saubere Daten, die Wissensschicht, die Kontext gibt, die Orchestrierung, die dynamische Arbeitsabläufe koordiniert, und das Vertrauensmodell, das entscheidet, was zugelassen werden sollte. Als die Titanic unterging, war es nicht der kleine Teil, den man sehen konnte, der sie untergehen ließ; es war die riesige Masse Eis unter der Oberfläche. Operationale künstliche Intelligenz ist dasselbe. Die Rohre unter der Oberfläche sind das, was einen zum Erfolg oder Misserfolg führt.
Historisch betrachtet behandelten wir Orchestrierung und Vertrauen nicht als separate Schichten, weil Menschen die meiste Arbeit leisteten. Orchestrierung bedeutete Manager und Ticket-Schlangen; Vertrauen bedeutete Benutzernamen und Passwörter. Jetzt müssen Sie Entitäten – Agenten – vertrauen, Dinge zu tun, und Sie müssen mehrere Agenten in Echtzeit um dynamische Daten herum koordinieren. Das ist ein völlig anderes Designproblem, weshalb diese Schichten explizit sein müssen.
Die Schicht, die die meisten Menschen unterschätzen, ist Vertrauen. Viele Organisationen denken, sie hätten Vertrauen im Griff, weil sie Zugriffskontrollen haben – wer kann sich in welches System einloggen. Aber echtes Vertrauen in einer agentischen Welt ist nicht “hat dieser Benutzer Zugriff?” Es ist “ist diese bestimmte Aktion für diese Person oder diesen Agenten zu diesem Zeitpunkt angemessen?” Das ist eine Regierungsfrage, keine Zugriffskontrollfrage. Wenn Sie diese Schicht nicht explizit machen, bleiben Sie in der Demowelt stecken, weil Sie nie bequem sein werden, Agenten in der Produktion echte Arbeit leisten zu lassen.
Vertrauen ist offensichtlich ein grundlegender Bestandteil Ihrer künstlichen Intelligenz-Strategie. Wie entwerfen Sie Systeme, damit automatisierte Entscheidungen beobachtbar, überprüfbar und rückgängig gemacht werden können, während Sie gleichzeitig schnell genug sind, um Geschäftswert zu liefern?
Sie müssen mit einer Null-Vertrauens-Haltung beginnen. Die erste Frage ist nicht “kann dieser Agent technisch gesehen dies tun?” Die erste Frage ist “sollte dieser Agent im Namen dieser Person überhaupt versuchen, dies zu tun?” Wenn die Antwort nein ist, dann gehen Sie nicht weiter.
Wenn die Antwort ja ist, gehen Sie zu Schutzrailings über: Überprüfbarkeit, Nachvollziehbarkeit und die Notwendigkeit eines Menschen im Entscheidungsprozess. Unser Modell basiert auf einer Vertrauensschicht, die ein bisschen wie ein Verkehrspolizist am Anfang jeder Interaktion agiert: Wer sind Sie, was tun Sie und warum tun Sie dies? Das eliminiert viele Sicherheitsprobleme, da Sie Agenten nicht loslassen und hoffen, dass Sie es später bemerken.
Die Alternative ist, die Agenten loszulassen und dann einen Alarm auszulösen, wenn sie etwas Schlechtes tun. Sie gehen davon aus, dass Sie es sehen, herausfinden, identifizieren und in Echtzeit stoppen können, im Tempo und Umfang, in dem diese Systeme operieren. Das ist ein sehr hartes Problem, und es ist der Grund, warum so viele Menschen kämpfen – sie versuchen, böse Akteure in Echtzeit zu finden, anstatt böse Aktionen im Voraus zu verhindern.
Darauf haben wir zusätzlich geschichtete Gateways hinzugefügt. Selbst wenn ein Agent im Namen der richtigen Person handelt, schauen wir uns die Sitzung und den Inhalt an – versuchen sie, ein Modell zu vergiften, eine API zu missbrauchen oder etwas außerhalb der Richtlinie zu tun? All das ist in voller Beobachtbarkeit gehüllt, so dass Sie sehen können, was passiert ist, und es zurücksetzen können, wenn Sie müssen. So können Sie schnell vorankommen und gleichzeitig gut schlafen.
Viele Unternehmen haben Erfolg darin, künstliche Intelligenz-Erkenntnisse zu generieren, aber sie kämpfen darin, sie in Aktionen umzusetzen. Welche Designentscheidungen ermöglichten es Calix, künstliche Intelligenz direkt in den täglichen Arbeitsabläufen von Marketing, Betrieb und Kundensupport zu integrieren?
Schon lange bevor künstliche Intelligenz der Star der Show war, waren wir bei Calix bereits besessen von einer Frage: Was macht eine Erkenntnis wirklich handhabbar für eine reale Person in einem realen Job? Seit 2018 arbeiten wir mit Dienstleistern zusammen, um zu verstehen, wie unterschiedliche Persönlichkeiten arbeiten – was ein Marketer am Dienstagmorgen tut, was ein Betriebsteam tut, wenn ein Alarm ausgelöst wird, was Support-Teams tun, wenn ein Abonnent frustriert anruft. Das zwang uns, sehr präzise zu werden, welche Erkenntnisse für wen, in welchem Kontext und was “gute Aktion” aussieht.
Also, als agentische künstliche Intelligenz auftauchte, fingen wir nicht bei null an. Wir hatten bereits Echtzeitsysteme, die handhabbare Erkenntnisse generierten, die an bestimmte Persönlichkeiten und Arbeitsabläufe gebunden waren. Die Designfrage wurde: Gegeben ein anderes Werkzeugset und ein anderer Tech-Stack, wie würden Sie diese Arbeitsabläufe in einer agentischen künstlichen Intelligenz-Welt neu entwerfen, anstatt alles von vorne zu erfinden?
Wenn Sie diese tiefgreifende Persönlichkeitskenntnis mit agentischer künstlicher Intelligenz paaren, können Sie dynamische Arbeitsabläufe über dynamische Daten aufbauen. Agenten können in Echtzeit herausfinden, welche Schritte und welche Persönlichkeiten involviert sein müssen, basierend auf dem, was passiert, anstatt Sie zu zwingen, hunderte starrer Flows in Micro-Services zu kodifizieren. Für die meisten Unternehmen ist das harte Problem gerade, in Echtzeit Entscheidungen basierend auf Kontext zu treffen und dann den richtigen Arbeitsablauf darum herum zu entwerfen. Für uns war das Teil bereits vorhanden; wir hatten bereits Echtzeit-, persona-basierte, handhabbare Erkenntnisse seit Jahren. Agentische künstliche Intelligenz ist einfach ein neues Set an Werkzeugen auf dieser Grundlage.
Ihre Plattformvision umfasst Agent-zu-Agent (A2A)-Interoperabilität und verteilte künstliche Intelligenz-Systeme. Wie ändert sich diese Herangehensweise die Art und Weise, wie Unternehmenswerkzeuge zusammenarbeiten, im Vergleich zu traditionellen Punktintegrationen?
Wenn man auf die letzten 20 Jahre zurückblickt, war das Standardmuster “eine Menge SaaS-Tools kaufen und sie um einen Data-Lake herum verbinden”. Jedes neue System bedeutete eine weitere Punktintegration, eine weitere Datenpipeline und einen weiteren Ort, an dem die Wahrheit zu versöhnen war. In einer agentischen Welt funktioniert das nicht. Sie wollen, dass die Daten dort bleiben, wo sie hingehören, und dass Agenten miteinander über gut definierte Schnittstellen sprechen.
Das ist, warum wir von MCP auf der Wissensebene und A2A auf den Orchestrierungs- und Vertrauensebenen sprechen. MCP ist, wie Agenten Tools und Daten verwenden, ohne jedes Mal eine neue benutzerdefinierte Integration zu benötigen. A2A ist, wie Agenten miteinander unter klaren Schutzrailings arbeiten.
Sobald Sie das haben, hört die Zusammenarbeit auf, wie ein Haufen brüchiger Verbinder auszusehen, und beginnt, wie ein Netzwerk von Spezialisten auszusehen, die dynamisch um reale Arbeit zusammenarbeiten können. Hier kommt die Eisenhower-Matrix-Analogie ins Spiel. Nicht alles ist gleichzeitig dringend und wichtig. Einige Arbeit ist wirklich zeitkritisch, einige sind wichtig, aber können geplant werden, einige müssen einfach erledigt werden, und einige sind nur Rauschen. Mit Agent-zu-Agent-Koordination auf einer Vertrauens- und Orchestrierungsebene können Sie diese Kategorien unterschiedlich im großen Maßstab behandeln: Agenten können die dringendsten und wichtigsten Probleme umschwärmen, die wichtigen, aber nicht dringenden, planen oder in eine Warteschlange stellen, und die niedrigwertige Kleinarbeit davon abhalten, alles andere zu überfluten.
Das ist eine völlig andere Welt als “lassen Sie uns noch einen Connector hinzufügen und hoffen, dass die Warteschlange leer wird”. Sie sehen effektiv vertrauenswürdige, sorgfältig orchestrierte dynamische Arbeitsabläufe um dynamische Ereignisse und Daten herum, anstatt ein Gewirr aus Einzelintegrationen, bei dem alles mit der gleichen Priorität schreit.
Sobald künstliche Intelligenz-Agenten autonom handeln dürfen, wird Governance schnell zu einer Herausforderung. Wie balancieren Sie Geschwindigkeit, Rechenschaftspflicht und menschliche Aufsicht, wenn künstliche Intelligenz-Systeme Entscheidungen treffen oder ausführen, im großen Maßstab?
Der Fehler, den ich sehe, ist, dass die Leute denken, sie könnten agentische künstliche Intelligenz auf das setzen, was sie haben, und dann versuchen, Geschwindigkeit, Rechenschaftspflicht und menschliche Aufsicht nachträglich auszugleichen. Sie können nicht. Sie müssen damit beginnen, anzuerkennen, dass dies ein vertikales Tech-Stack-Problem ist, und absichtlich eine Vertrauensschicht und eine Orchestrierungsschicht aufbauen. Ohne diese beiden Schichten wird es zu einem freien Für-alle – alles ist first-come, first-served, oder wer am lautesten schreit.
Wieder ist es die Eisenhower-Matrix: Nicht alle Arbeit ist gleich. Vertrauen und Orchestrierung sind, wie Sie das in einer agentischen Welt operationalisieren. Sie wollen nicht, dass jeder Agent jede Aufgabe wie einen Feueralarm behandelt; Sie wollen, dass das System weiß, was wirklich zeitkritisch ist, was geplant werden kann und was leise im Hintergrund erledigt werden sollte.
Und dann gibt es den “schmal über fett” Teil. Die meisten Unternehmen irren, wenn sie denken, dass ein größerer Einfluss von künstlicher Intelligenz mit breiter zu tun hat. Sie sind viel besser dran, wenn sie eine schmale vertikale Scheibe wählen – einen konkreten Anwendungsfall, einen Satz von Arbeitsabläufen – und den Vertrauens- und Orchestrierungsbedarf dort zuerst aufbauen. Dünner im Vertikalen werden, es richtig machen, Menschen am Rand im Entscheidungsprozess halten und dann expandieren. So können Sie schnell vorankommen, rechenschaftspflichtig bleiben und vermeiden, ein Durcheinander zu schaffen, das Sie später nicht mehr auflösen können.
Aus Ihrer Erfahrung als Leiter großer globaler Produkt- und Ingenieurteams, welche organisatorischen oder kulturellen Veränderungen sind erforderlich, damit künstliche Intelligenz zu einer dauerhaften Unternehmensfähigkeit wird und nicht nur eine Sammlung nicht verbundener Pilotprojekte?
Die meisten Unternehmen haben kein “künstliche Intelligenz-Problem”; sie haben ein Wissens- und Arbeitsablauf-Problem. Der erste Schritt ist, aufzuhören, mit Punkt-Lösungen zu spielen, und von Data-Warehouses zu einem verteilten Wissens-Warehouse zu wechseln, auf das jeder zugreifen und handeln kann. Solange Wissen in Silos lebt und künstliche Intelligenz ein Cherry auf jedem Silo ist, erhalten Sie Pilotprojekte, nicht Transformation.
Von dort aus müssen Sie bereit sein, die härteren Probleme in einer bestimmten Reihenfolge anzugehen. Schritt eins ist, Hype von Realität zu trennen und das zu adoptieren, was funktioniert, nicht das, was am lautesten in Ihrem Feed ist. Schritt zwei ist, die Wissensebene so umzubauen, dass Sie Daten in geteilten, verteilten Kontext umwandeln können, anstatt ein weiteres Bericht im System zu begraben. Schritt drei ist, Arbeitsabläufe um dieses Wissen und eine echte Vertrauensschicht herum zu überdenken – die meisten Arbeit heute ist um Menschen, Fähigkeiten und lokale Wissenssilos organisiert. Wenn Sie das nicht ändern, werden Agenten nur ein weiteres Werkzeug sein, das um die gleichen alten Engpässe kreist.
Erst dann kommen Sie zur kulturellen Veränderung, die oft die schwerste ist. Sie benötigen eine Kultur, in der die Menschen nicht in erster Linie besorgt sind, ihre Jobs, Tools oder Identität zu verlieren, sondern wirklich aufgeregt sind, mit neuen Fähigkeiten zu arbeiten. Das ist ein Change-Management-Problem, kein Technologieproblem. Es sieht viel wie echte verteilte Führung aus: Menschen am Punkt des Speers verstehen die Arbeitsabläufe, fühlen sich sicher, Reibungspunkte zu benennen, und sind aufgeregt, Agenten darauf ansetzen zu lassen.
Außerhalb von Breitband und Telekommunikation, welche Branchen sind Ihrer Meinung nach am besten darauf vorbereitet, operationale, agentengetriebene künstliche Intelligenz als Nächstes zu übernehmen, und welche Bedingungen machen sie bereit?
Ich denke nicht darüber nach, Gewinner nach Branchenbezeichnungen auszuwählen; ich denke in Mustern. Fast jede vertikale Branche hat die gleiche zugrunde liegende Herausforderung: Sie haben Data-Silos und Funktionssilos aufgebaut, anstatt einen Blick über drei Lebenszyklen – Kunden, Mitarbeiter und Produkt. Diejenigen, die bereit sind, das zu sehen, zuzugeben, dass sie keine echte Wissensebene haben, und es zu beheben.
Von dort aus sehen die Bedingungen ziemlich ähnlich aus, unabhängig davon, ob Sie in Gesundheitswesen, Finanztechnologie, Einzelhandel oder kritischer Infrastruktur sind. Sie benötigen komplexe Arbeitsabläufe, bei denen Menschen gestresst sind, echte Reibungspunkte, die benannt werden können, und genügend hochwertige Daten, um Agenten Kontext zu geben. Wenn Sie Arbeitsabläufe kartieren können, sehen, wo die Arbeit verlangsamt wird oder sich auftürmt, verstehen, welche Übergaben Verzögerungen verursachen, und das dann mit einem verteilten Wissens-Warehouse untermauern, wird agentische künstliche Intelligenz zu einem unglaublichen Werkzeugset.
In dieser Welt ist “Branchenbereitschaft” eine Frage der Führung. Sind die Führungskräfte eines Unternehmens bereit, über Marketing-Tools und dünne horizontale Dashboards hinauszugehen und stattdessen in einen vertikalen Tech-Stack zu investieren – Daten in Wissen umzuwandeln, Wissen zu verteilen, Orchestrierungs- und Vertrauensrahmen aufzubauen und ehrliche Gespräche über den echten ROI zu führen? Jedes Unternehmen in jeder Branche, das diese Arbeit leistet, ist gut darauf vorbereitet, operationale, agentengetriebene künstliche Intelligenz zu übernehmen; diejenigen, die es nicht tun, werden stecken bleiben und ein weiteres Tool zu einem bereits lauten Haufen hinzufügen.
Wie wird sich die gute künstliche Intelligenz-Architektur in fünf Jahren sehen, und welche Prinzipien sollten Führungskräfte heute verpflichten, um zu vermeiden, ihre Systeme später neu aufbauen zu müssen?
In fünf Jahren wird der interessante Teil von künstlicher Intelligenz nicht die einzelnen Agenten oder Modelle sein; es wird die agentischen Arbeitsabläufe sein, die sie ermöglichen, und der Geschäftswert, den diese Arbeitsabläufe liefern. Agenten selbst werden kommen und gehen. Die Schichten unter ihnen – Daten, Wissen, Orchestrierung, Vertrauen und Aktion – werden weiterentwickelt, aber die Notwendigkeit dafür verschwindet nicht.
Das ist, warum ich mich mehr auf Architektur konzentriere als auf ein bestimmtes Werkzeug. Wir bewegen uns von Data-Warehouses zu verteilten Wissens-Warehouses, von brüchigen Punktintegrationen zu offenen, geschichteten Stacks. In dieser Welt werden Sie Agenten haben, die in verschiedenen Clouds laufen, verschiedene Wissensquellen berühren und über gut definierte Schnittstellen miteinander kommunizieren – MCP auf der Wissensebene, Agent-zu-Agent-Protokolle auf den Orchestrierungs- und Vertrauensebenen. Wenn die Technologie verbessert wird, möchten Sie in der Lage sein, bessere Teile in diese Schichten einbauen, ohne das gesamte System jedes Mal neu aufzubauen.
Die Prinzipien für Führungskräfte sind einfach. Bauen Sie nicht monolithisch. Entwerfen Sie für Schichten, damit Daten, Wissen, Orchestrierung, Vertrauen und Aktion unabhängig voneinander evolvieren können. Entwerfen Sie für Flows, nicht für Funktionen, damit Sie klar sind, welche Arbeitsabläufe wichtig sind und was “gut” in Kunden-, Mitarbeiter- und Produktlebenszyklen aussieht. Und entwerfen Sie für Governance auf der Agentenebene: Nehmen Sie an, dass Sie null Vertrauen haben, definieren Sie klare “Agenten-Karten” und verwenden Sie Orchestrierung, um zu entscheiden, was dringend, was wichtig und was einfach erledigt werden muss. Wenn Sie das tun, können Sie die Technologie ändern lassen – wie sie es immer tut – ohne sich ständig Sorgen darüber zu machen, alles neu aufzubauen.
Vielen Dank für das großartige Interview, Leser, die mehr erfahren möchten, sollten Calix besuchen.












