Connect with us

Amit Sharma, CEO und Gründer von CData – Interviewreihe

Interviews

Amit Sharma, CEO und Gründer von CData – Interviewreihe

mm

Amit Sharma, CEO und Gründer von CData Software, ist ein Tech-Executive, der CData von seiner frühen Start-up-Phase zu einem globalen Marktführer im Bereich Datenkonnektivität und -integration geführt hat. Mit einer Karriere, die Rollen als Software-Ingenieur bei Infosys und Elixar, als technischer Architekt bei /n Software und später als CTO bei CData umfasst, hat er tiefgreifende Expertise im Bereich Unternehmensdatenzugriff und -infrastruktur aufgebaut. Seit er 2014 CEO wurde, hat er CData’s Mission geleitet, die Art und Weise, wie Organisationen Daten über Systeme hinweg verbinden, integrieren und nutzen, zu vereinfachen, und half dabei, das Unternehmen als grundlegende Schicht der modernen Datenbewegung zu positionieren.

CData Software ist ein führender Anbieter von Datenzugriffs- und Konnektivitätslösungen. Seine Selbstbedienungsdatenprodukte und Konnektivitätsplattformen bieten universellen Zugriff auf Live-Daten über Hunderte von weit verbreiteten On-Premises- und Cloud-Anwendungen. Millionen von Benutzern weltweit verlassen sich auf CData, um erweiterte Analysen zu unterstützen, die Cloud-Adoption zu beschleunigen und besser vernetzte, datengetriebene Organisationen aufzubauen. Da sie so konzipiert sind, dass sie von jedem Benutzer konsumiert, in jeder Anwendung zugänglich und für Unternehmen aller Größen skalierbar sind, definiert CData neu, wie Unternehmen auf Daten zugreifen und sie nutzen.

Sie begannen Ihre Karriere in Indien bei Infosys und wechselten später in die US-amerikanische Unternehmenssoftware. Welche frühe Lektion aus dieser Phase prägt noch heute Ihre Führungsweise?

Meine Zeit bei Infosys gab mir frühzeitig Einblick in die Anforderungen von groß angelegter Unternehmens-Technologie — die Komplexität, die Notwendigkeit von Zuverlässigkeit und wie große Organisationen technische Probleme angehen. Das prägte eine tiefe Wertschätzung für Struktur und unternehmensgrade Qualität. Als ich jedoch zu einem US-amerikanischen Startup wechselte, entdeckte ich, dass ich mich in Geschwindigkeit, Agilität und der Fähigkeit, direkten Einfluss zu nehmen, wohl fühlte. Heute leitet mich diese doppelte Herkunft bei der Führung von CData Software: Ich bestehe auf unternehmensgradigen Standards und Robustheit, während ich gleichzeitig eine schlanke, schnell agierende Kultur fördere, die Einfachheit, reale Benutzbarkeit und schnelle Ausführung schätzt.

Nach über einem Jahrzehnt als CEO von CData, was war die wichtigste Veränderung in der Denkweise oder Herangehensweise, um das Unternehmen von seinen frühen Tagen in ein globales Unternehmen zu skalieren?

Die größte Veränderung für mich war der Wechsel vom Denken als Technologie-Erfinder zum Denken als Organisations-Erfinder. In den frühen Tagen lag mein Fokus fast ausschließlich auf dem Produkt; ich musste sicherstellen, dass es elegant, zuverlässig und Probleme löste. Als CData wuchs, musste ich lernen, dass großartige Software allein nicht ausreicht; man braucht großartige Menschen, starke Führungskräfte und Prozesse, die sich ohne Verzögerung skalieren lassen. Das bedeutete, früher in die Einstellung, Ermächtigung von Teams und den Aufbau wiederholbarer Systeme in Vertrieb, Support und Betrieb zu investieren, während ich gleichzeitig unsere Ingenieukturkultur schützte. Die Veränderung in der Denkweise bestand darin, zu erkennen, dass meine Aufgabe nicht nur darin bestand, großartige Technologie zu schaffen, sondern eine Umgebung zu schaffen, in der großartige Technologie von einem wachsenden globalen Team konsistent aufgebaut werden konnte.

CData hat sich seit Langem auf “den Zugriff auf alle Daten, überall” konzentriert. Wie hat sich diese Mission im Zuge der Entwicklung von künstlicher Intelligenz (KI) in Anwendungen weiterentwickelt?

Von Anfang an war unsere Mission bei CData, Daten universell zugänglich zu machen, indem wir vertraute, standardisierte Schnittstellen verwenden, da wir glaubten, dass der größte Engpass für Innovation nicht im Speicher oder Rechenvermögen lag, sondern im Zugriff. Diese grundlegende Idee hat sich nicht geändert, aber der Kontext hat sich verändert. Als Organisationen von der Analyse zur Cloud und jetzt zu KI übergingen, ist der Kostenaspekt von fragmentiertem, inkonsistentem Datenzugriff nur gestiegen. Was sich weiterentwickelt hat, ist unsere Verantwortung: Es geht nicht mehr nur darum, Anwendungen mit Daten zu verbinden, sondern sicherzustellen, dass Daten vertrauenswürdig, in Echtzeit und über komplexe, verteilte Umgebungen hinweg nutzbar sind. Im Zeitalter von KI reicht der Zugriff allein nicht mehr aus. Daten müssen sofort nutzbar sein, ohne dass Wochen der individuellen Ingenieurlösungen erforderlich sind.

Wenn KI-Anwendungen zum Standard werden, hat sich unsere Mission erweitert, um Daten standardmäßig KI-fähig zu machen. Das bedeutet, konsistente Semantik, Hochleistungs-Konnektivität, governance-bewussten Zugriff und Echtzeit-Integration über strukturierte und SaaS-Datenquellen hinweg zu ermöglichen, damit Modelle und Agenten mit frischen, zuverlässigen Informationen arbeiten können, anstatt mit brüchigen Punkt-zu-Punkt-Integrationen oder veralteten Kopien. In praktischer Hinsicht konzentrieren wir uns darauf, die Reibung zwischen dem Ort, an dem Daten gespeichert sind, und dem Ort, an dem KI-Systeme operieren, zu beseitigen, damit Teams schneller von Experimenten zu Produktionsumgebungen übergehen können. Wir sehen uns nicht nur als Konnektivitätsanbieter, sondern als grundlegende Datenschicht für KI-getriebene Unternehmen, die stillschweigend die Systeme antreiben, die intelligente Anwendungen ermöglichen.

Bei der Beschleunigung von generativer KI, was bedeutet “KI-fähige Daten” für Sie, und wo sehen Sie, dass Organisationen diese Idee am meisten missverstehen?

Für mich bedeuten “KI-fähige Daten”, dass Daten zugänglich, zuverlässig, aktuell und sowohl für Menschen als auch für Maschinen ohne Schichten von individueller Verrohrung verständlich sind. Es geht nicht nur darum, Daten in einen See oder in Lager zu verschieben. Es geht darum, sicherzustellen, dass Systeme, Modelle und Agenten konsistent auf die richtigen Daten zum richtigen Zeitpunkt über standardisierte, geregelte Schnittstellen zugreifen können. KI-Bereitschaft hängt weniger davon ab, wo Daten gespeichert sind, und mehr davon, ob sie entdeckt, abgefragt, vertraut und in Echtzeit integriert werden können. Ohne diese Grundlage funktionieren sogar die fortschrittlichsten Modelle mit unvollständigen oder veralteten Informationen.

Wo ich sehe, dass Organisationen dieses Konzept missverstehen, ist, wenn sie annehmen, dass Zentralisierung automatisch Bereitschaft bedeutet. Teams glauben oft, dass sobald Daten in eine einzige Plattform konsolidiert sind, sie “KI-fähig” sind, wenn sie in Wirklichkeit nur eine neue Insellösung geschaffen haben. Andere investieren zu viel in Tooling, ohne Datenqualität, Semantik und Konnektivität anzugehen, die unglamurösen Probleme, die reale KI-Systeme machen oder brechen. KI scheitert nicht an Modellen; sie scheitert an chaotischen, unzugänglichen oder veralteten Daten. Die Organisationen, die gewinnen werden, sind diejenigen, die Datenvorbereitung als betriebliche Disziplin und nicht als einmaliges Migrationsprojekt behandeln.

Ihre neue Forschung, Der Zustand der KI-Datenkonnektivität: Ausblick 2026, zeigt, dass nur 6% der KI-Führer glauben, dass ihre Dateninfrastruktur vollständig für KI bereit ist. Warum denken Sie, dass die Bereitschaftslücke so groß ist, und was sagt uns das über die aktuelle Richtung der Branche?

Die Lücke ist so groß, weil die meisten Organisationen in den letzten zehn Jahren mehr in die Erfassung und Speicherung von Daten investiert haben, bevor sie in die Machbarkeit für KI investierten. Unternehmen haben Seen, Lager und Pipelines aufgebaut, aber sie haben selten eine kohärente Zugriffsschicht aufgebaut, die sicherstellt, dass Daten konsistent, in Echtzeit und über Systeme hinweg verfügbar sind. Als Führungskräfte beginnen, KI in reale Workflows zu integrieren, entdecken sie, dass ihre zugrunde liegende Infrastruktur den erforderlichen Geschwindigkeit, Umfang oder Zuverlässigkeit nicht unterstützen kann. Der Wert von 6% spiegelt nicht einen Mangel an Ehrgeiz wider, sondern die Realität, dass KI Schwächen aufdeckt, die immer da waren, aber in traditioneller Analyse nicht so wichtig waren.

Was die Daten über die Branche aussagen, ist, dass wir noch am Anfang der KI-Adoptionskurve sind, nicht am Ende. Organisationen experimentieren aggressiv auf der Anwendungsebene, aber sie erkennen jetzt, dass Erfolg von der Modernisierung ihrer Datenbasis abhängt. Wir betreten eine korrigierende Phase, in der der Fokus von beeindruckenden Pilotprojekten auf betriebliche Bereitschaft — standardisierter Zugriff, geregelte Integration und Echtzeit-Konnektivität — verschoben wird. Die Gewinner werden nicht die Unternehmen sein, die die meisten Konzepte aufbauen, sondern diejenigen, die ihre Dateninfrastruktur schnell genug modernisieren, um diese Experimente in großem Umfang in die Produktion zu überführen.

Die Ergebnisse zeigen auch, dass 71% der KI-Teams mehr als ein Viertel ihrer Zeit mit “Daten-Verrohrung” verbringen. Welcher Teil dieser Arbeit ist Ihrer Meinung nach tatsächlich strategisch und nicht nur technische Schulden?

Ein gewisser Anteil an “Daten-Verrohrung” ist absolut strategisch, wenn es darum geht, dauerhaften Zugriff auf Daten durch standardisierte Schnittstellen zu schaffen und für Skalierbarkeit und Governance von Anfang an zu entwerfen. Investitionen in konsistente Konnektivität, gemeinsame Semantik und zuverlässige Integrationsmuster sind grundlegende Arbeiten, die über jede Anwendung und jedes Modell, das später kommt, Dividenden abwerfen. Das Problem ist, dass die meisten Teams diese Art von Verrohrung nicht durchführen. Sie bauen einzigartige Pipelines auf, schreiben brüchige Konnektoren und flicken Integrationen, die nur einmal ein Problem lösen. Das ist technische Schulden, die als Fortschritt getarnt sind.

Was strategisch ist, ist alles, was zukünftige Reibung reduziert: das Eliminieren von individuellem Code zugunsten von Standards, das Aufbauen wiederverwendbarer Daten-Dienste und das Verbinden von Systemen auf eine Weise, die über Teams und Anwendungsfälle hinweg skaliert. Wenn Verrohrung unsichtbar und wiederholbar wird, hört sie auf, eine Steuer auf KI-Teams zu sein, und wird zu einem Enabler. Das eigentliche Ziel ist nicht, weniger Zeit mit Daten zu verbringen. Es ist, aufzuhören, Zeit mit denselben Datenproblemen zu verbringen.

Ein auffälliger Datenpunkt aus dem Bericht ist, dass 46% der Unternehmen jetzt Echtzeit-Zugriff auf sechs oder mehr Datenquellen für einen einzelnen KI-Anwendungsfall benötigen. Spiegelt das, was Sie bei Kunden sehen, wider, und was macht diese Art von Konnektivität so schwierig?

Ja, das stimmt eng mit dem überein, was wir bei Kunden sehen. Moderne KI-Anwendungsfälle, ob Vorhersageanalyse, Empfehlungsmotoren oder autonome Workflows, verlassen sich selten auf ein einzelnes System. Unternehmen benötigen oft die Kombination von ERP-, CRM-Systemen, SaaS-Apps, Streaming-Plattformen und Legacy-Datenbanken, um bedeutungsvolle Erkenntnisse zu generieren. Die Herausforderung liegt nicht nur in der Anzahl der Quellen; es liegt in der Vielfalt, unterschiedlichen Protokollen, Formaten und Aktualisierungshäufigkeiten und der Erwartung, dass diese Daten in Echtzeit für KI-Modelle verfügbar sind.

Was diese Art von Konnektivität so schwierig macht, ist, dass herkömmliche Integrationsansätze nie für den Umfang, die Geschwindigkeit und die Zuverlässigkeit konzipiert wurden, die KI erfordert. Einzigartige Konnektoren und Batch-Pipelines können einfach nicht mithalten. Wahrer Echtzeit-Zugriff erfordert standardisierte, gemanagte Schnittstellen, konsistente Semantik über Systeme hinweg und Überwachung, um Datenqualität und -verfügbarkeit sicherzustellen. Ohne diese Grundlage verbringen Teams mehr Zeit mit der Brandbekämpfung von Pipelines als mit dem Aufbau von KI-Lösungen, was die Innovation verlangsamt und Risiken einführt. Die Organisationen, die erfolgreich sind, sind diejenigen, die Konnektivität als strategische Fähigkeit und nicht nur als technische Aufgabe behandeln.

Der Bericht betont semantische Konsistenz, Kontext und Konnektivität als definierende Merkmale einer reifen KI-Dateninfrastruktur. Wie sollten Organisationen diese Prioritäten sequenzieren?

Wenn es um die Sequenzierung geht, sollten Organisationen mit der Konnektivität beginnen. Wenn Daten nicht zuverlässig über Systeme hinweg zugänglich sind, wird alles andere irrelevant. KI-Modelle können nicht aus Daten lernen, die sie nicht erreichen können. Die Einrichtung standardisierter, geregelter Verbindungen zu allen kritischen Datenquellen legt die Grundlage für alles, was folgt. Ohne diese Schicht enden Teams damit, fragile, einzigartige Pipelines aufzubauen, die später mehr Arbeit bedeuten.

Sobald die Konnektivität hergestellt ist, wird semantische Konsistenz zur nächsten Priorität. Daten benötigen eine gemeinsame Sprache, damit Informationen aus mehreren Quellen korrekt interpretiert und bedeutungsvoll kombiniert werden können. Kontext folgt natürlich: das Verständnis nicht nur der Werte, sondern auch ihrer Bedeutung im Geschäftsprozess, der Zeit und der Beziehungen, stellt sicher, dass KI-Modelle genaue, handhabbare Vorhersagen treffen können. Die Behandlung dieser Elemente als strukturierte Sequenz — Konnektivität zuerst, Semantik zweite, Kontext dritte — ermöglicht es Organisationen, eine KI-fähige Dateninfrastruktur aufzubauen, die skaliert und zuverlässige, produktionsreife Intelligenz unterstützt.

KI-native Software-Anbieter benötigen inzwischen etwa dreimal so viele externe Integrationen wie traditionelle Anbieter. Was treibt diese sich verbreiternde Lücke an, und was offenbart sie über die Richtung, in die sich die Software entwickelt?

Die sich verbreiternde Lücke wird durch die Natur der KI selbst angetrieben: KI-native Anwendungen gedeihen mit vielfältigen, Echtzeit-Daten aus mehreren Quellen. Im Gegensatz zu traditioneller Software, die oft innerhalb eines einzigen Systems oder einer Suite operiert, benötigen KI-Modelle die Aufnahme, Korrelation und Analyse von Informationen über ERP-Systeme, CRM-Plattformen, SaaS-Apps, Streaming-Quellen und mehr. Jede Integration ist für die KI von entscheidender Bedeutung, um genaue Vorhersagen, Empfehlungen oder automatisierte Aktionen zu liefern.

Diese Trend offenbart, dass sich die Software von isolierten Anwendungen hin zu vernetzten, intelligenten Ökosystemen bewegt. Die Gewinner werden nicht die Produkte sein, die gut allein funktionieren. Sie werden die Plattformen sein, die problemlos auf Daten überall zugreifen und integrieren können. In praktischen Begriffen bedeutet das, dass Konnektivität, Standardisierung und Echtzeit-Integration keine netten Extras mehr sind. Sie sind grundlegende Fähigkeiten, damit KI-native Software echten Wert liefert.

Blicken Sie fünf Jahre voraus, was wird Ihrer Meinung nach zum größten Engpass für den Erfolg von KI — Konnektivität, Echtzeit-Pipelines, semantische Modellierung, Governance oder etwas ganz anderes?

Wenn ich fünf Jahre voraussehe, glaube ich, dass Governance und Sicherheit zum größten Engpass für den Erfolg von KI werden. Während Konnektivität und Echtzeit-Pipelines grundlegend bleiben — KI-Modelle können nur so effektiv sein, wie die Daten, auf die sie zugreifen können — erkennen Organisationen rasch, dass unregulierte KI nicht nachhaltig und potenziell gefährlich ist. Wenn KI von Experimenten in die Produktion und beginnt, kritische Geschäftsentscheidungen zu beeinflussen, multiplizieren sich die Risiken von Voreingenommenheit, Verstößen gegen die Einhaltung, Datenlecks und Betriebsfehlern exponentiell.

Die Herausforderung besteht nicht nur darin, Daten zu bewegen, sondern darin, die richtigen Daten mit den richtigen Kontrollen, zu den richtigen Systemen, auf eine nachvollziehbare und überprüfbare Weise zu bewegen. Organisationen, die es versäumen, starke Governance-Rahmen und Sicherheitsprotokolle von Anfang an zu implementieren, werden mit zunehmendem regulatorischem Druck, Rufschaden und letztendlich KI-Systemen konfrontiert sein, denen sie nicht vertrauen oder skalierten können. Wir sehen bereits erste Anzeichen: Unternehmen zögern, KI einzusetzen, weil sie Datenherkunft, Zugriffskontrollen oder Einhaltung von Vorschriften nicht gewährleisten können.

Die erfolgreichsten Organisationen in fünf Jahren werden diejenigen sein, die Governance und Sicherheit nicht als Nachgedanken, sondern als Kern-Enabler von KI behandeln. Ja, Sie benötigen Konnektivität und Echtzeit-Pipelines, um Daten in Bewegung zu setzen, aber ohne Governance und Sicherheit in Ordnung sind diese Daten eine Belastung und kein Vermögen. Die Zukunft von KI ist nicht nur eine Frage von Geschwindigkeit oder Umfang; es ist eine Frage von Vertrauen, Rechenschaftspflicht und verantwortungsvoller Bereitstellung auf jeder Ebene des Datenstapels.

Vielen Dank für das großartige Interview. Leser, die mehr erfahren möchten, sollten CData Software besuchen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.