Interviews
Jeremy Kelway, VP of Engineering für Analytics, Data und AI bei EDB – Interview-Serie

Jeremy (Jezz) Kelway ist Vice President of Engineering bei EDB, mit Sitz im Pazifischen Nordwesten, USA. Er leitet ein Team, das sich auf die Lieferung von Postgres-basierten Analytics- und AI-Lösungen konzentriert. Mit Erfahrung in der Verwaltung von Database-as-a-Service (DBaaS), operativer Führung und innovativer Technologielieferung hat Jezz eine starke Erfolgsbilanz bei der Förderung von Fortschritten in aufstrebenden Technologien.
EDB unterstützt PostgreSQL, um es an die Geschäftsprioritäten anzupassen, ermöglicht die Entwicklung von cloud-nativen Anwendungen, kosteneffiziente Migration von Legacy-Datenbanken und flexible Bereitstellung in hybriden Umgebungen. Mit einem wachsenden Talentpool und robuster Leistung stellt EDB Sicherheit, Zuverlässigkeit und überlegene Kundenerfahrungen für mission-kritische Anwendungen sicher.
Warum wird Postgres immer mehr zur bevorzugten Datenbank für die Erstellung von generativen AI-Anwendungen, und welche Schlüsselfunktionen machen es für diese sich entwickelnde Landschaft geeignet?
Mit fast 75% der US-Unternehmen, die AI adoptieren, benötigen diese Unternehmen eine grundlegende Technologie, die es ihnen ermöglicht, schnell und einfach auf ihre Fülle an Daten zuzugreifen und AI vollständig zu nutzen. Hier kommt Postgres ins Spiel.
Postgres ist vielleicht das perfekte technische Beispiel für eine langfristige Technologie, die in der AI-Ära wieder an Popularität gewonnen hat. Mit robuster Architektur, nativer Unterstützung für mehrere Datentypen und Erweiterbarkeit durch Design ist Postgres ein primärer Kandidat für Unternehmen, die den Wert ihrer Daten für produktionsreife AI in einer souveränen und sicheren Umgebung nutzen möchten.
Durch die 20 Jahre, die EDB existiert, oder die 30+ Jahre, die Postgres als Technologie existiert, hat die Branche Evolutionen, Verschiebungen und Innovationen durchlaufen, und durch all dies verwenden die Benutzer weiterhin “einfach Postgres”, um ihre komplexesten Datenherausforderungen zu meistern.
Wie wird Retrieval-Augmented Generation (RAG) heute eingesetzt, und wie sehen Sie ihre Auswirkungen auf die Zukunft der “Intelligenten Wirtschaft”?
RAG-Flüsse gewinnen an Popularität und Momentum, und das aus gutem Grund! Wenn man RAG-Flüsse im Kontext der “Intelligenten Wirtschaft” betrachtet, ermöglichen sie den Zugriff auf Informationen auf eine Weise, die die menschliche Erfahrung erleichtert, Zeit spart, indem sie Daten und Informationen automatisieren und filtern, die sonst erhebliche manuelle Anstrengung und Zeit erfordern würden. Die erhöhte Genauigkeit des “Suchschritts” (Retrieval) in Kombination mit der Fähigkeit, spezifischen Inhalt zu einem umfassender trainierten LLM hinzuzufügen, bietet eine Fülle von Möglichkeiten, um informierte Entscheidungen mit relevanten Daten zu beschleunigen und zu verbessern. Eine nützliche Möglichkeit, darüber nachzudenken, ist, als ob man einen geschickten Forschungsassistenten hätte, der nicht nur die richtigen Informationen findet, sondern sie auch in einer Weise präsentiert, die zum Kontext passt.
Welche sind einige der größten Herausforderungen, denen sich Unternehmen bei der Implementierung von RAG in der Produktion gegenübersehen, und welche Strategien können helfen, diese Herausforderungen zu meistern?
Auf fundamentaler Ebene ist Ihre Datenqualität Ihr AI-Differenzierungsmerkmal. Die Genauigkeit von und insbesondere die generierten Antworten einer RAG-Anwendung werden immer von der Qualität der Daten abhängen, die zur Ausbildung und Ergänzung der Ausgabe verwendet werden. Das Maß an Raffinesse, das durch das generative Modell angewendet wird, wird weniger vorteilhaft sein, wenn die Eingaben fehlerhaft sind, was zu weniger angemessenen und unerwarteten Ergebnissen für die Abfrage führt (oft als “Halluzinationen” bezeichnet). Die Qualität Ihrer Datenquellen wird immer der Schlüssel zum Erfolg des abgerufenen Inhalts sein, der die generativen Schritte speist – wenn die Ausgabe so genau wie möglich sein soll, müssen die kontextuellen Datenquellen für das LLM so aktuell wie möglich sein.
Aus der Leistungsperspektive heraus; die Annahme einer proaktiven Haltung darüber, was Ihre RAG-Anwendung zu erreichen versucht – sowie wann und wo die Daten abgerufen werden – wird Sie in die Lage versetzen, potenzielle Auswirkungen zu verstehen. Wenn beispielsweise Ihr RAG-Fluss Daten aus transaktionalen Datenquellen abruft (d. h. ständig aktualisierten Datenbanken, die für Ihr Geschäft kritisch sind), wird die Überwachung der Leistung dieser wichtigen Datenquellen sowie der Anwendungen, die Daten aus diesen Quellen abrufen, Ihnen helfen, die Auswirkungen zu verstehen. Diese Maßnahmen sind ein hervorragender Schritt, um potenzielle oder Echtzeit-Auswirkungen auf die Leistung kritischer transaktionaler Datenquellen zu verwalten. Darüber hinaus kann diese Information auch wertvolle Kontexte für die Feinabstimmung der RAG-Anwendung liefern, um den Fokus auf die geeignete Datenabfrage zu legen.
Angesichts des Aufkommens spezieller Vektordatenbanken für AI, welche Vorteile bietet Postgres gegenüber diesen Lösungen, insbesondere für Unternehmen, die AI-Workloads operationalisieren möchten?
Eine mission-kritische Vektordatenbank hat die Fähigkeit, anspruchsvolle AI-Workloads zu unterstützen, während sie gleichzeitig die Datensicherheit, Verfügbarkeit und Flexibilität zur Integration mit bestehenden Datenquellen und strukturierten Informationen gewährleistet. Der Aufbau einer AI-/RAG-Lösung wird oft eine Vektordatenbank verwenden, da diese Anwendungen Ähnlichkeitsbewertungen und Empfehlungen beinhalten, die mit hochdimensionalen Daten arbeiten. Die Vektordatenbanken dienen als effiziente und effektive Datenquelle für Speicherung, Verwaltung und Abruf dieser kritischen Datenpipelines.
Wie handhabt EDB Postgres die Komplexität der Verwaltung von Vektordaten für AI, und welche sind die Hauptvorteile der Integration von AI-Workloads in eine Postgres-Umgebung?
Obwohl Postgres keine native Vektorfunktion hat, ermöglicht die Erweiterung pgvector die Speicherung von Vektordaten neben den restlichen Daten in Postgres. Dies ermöglicht es Unternehmen, Vektorfunktionen neben bestehenden Datenbankstrukturen zu nutzen, wodurch die Verwaltung und Bereitstellung von AI-Anwendungen vereinfacht wird, indem die Notwendigkeit separater Datenbestände und komplexer Datenübertragungen reduziert wird.
Mit Postgres als zentralem Spieler in transaktionalen und analytischen Workloads, wie hilft es Organisationen, ihre Datenpipelines zu straffen und schneller Erkenntnisse zu gewinnen, ohne Komplexität hinzuzufügen?
Diese Datenpipelines sind effektiv die Treibstoffquelle für AI-Anwendungen. Mit den zahlreichen DatenSpeicherformaten, -orten und -typen werden die Komplexitäten, wie die Abrufphase erreicht wird, schnell zu einer greifbaren Herausforderung, insbesondere wenn die AI-Anwendungen von Proof-of-Concept in die Produktion übergehen.
Die EDB Postgres AI-Pipelines-Erweiterung ist ein Beispiel dafür, wie Postgres eine Schlüsselrolle bei der Gestaltung des “Datenmanagement”-Teils der AI-Anwendungsgeschichte spielt. Durch die Vereinfachung der Datenverarbeitung mit automatisierten Pipelines für das Abrufen von Daten aus Postgres oder Objektspeicher, das Generieren von Vektorembeddings für neue Daten und das Auslösen von Updates für Embeddings, wenn sich die Quelldaten ändern – was bedeutet, dass die Daten immer auf dem neuesten Stand sind, ohne mühsame Wartung.
Welche Innovationen oder Entwicklungen können wir in naher Zukunft von Postgres erwarten, insbesondere da AI weiterhin evolviert und mehr von der Dateninfrastruktur verlangt?
Die Vektordatenbank ist keineswegs ein abgeschlossenes Kapitel, weitere Entwicklungen und Verbesserungen sind zu erwarten, da die Nutzung und Abhängigkeit von Vektordatenbanktechnologie weiterhin wächst. Die PostgreSQL-Community setzt sich weiterhin für Innovationen in diesem Bereich ein, um Methoden zu finden, um die Indizierung zu verbessern, um komplexere Suchkriterien zu ermöglichen, neben der Weiterentwicklung der pgvector-Funktion selbst.
Wie unterstützt Postgres, insbesondere mit den Angeboten von EDB, die Notwendigkeit von Multi-Cloud- und Hybrid-Cloud-Bereitstellungen, und warum ist diese Flexibilität für AI-getriebene Unternehmen wichtig?
Eine kürzlich von EDB durchgeführte Studie zeigt, dass 56% der Unternehmen mission-kritische Workloads in einem Hybrid-Modell bereitstellen, was die Notwendigkeit von Lösungen unterstreicht, die sowohl Agilität als auch Datenhoheit unterstützen. Postgres mit den Erweiterungen von EDB bietet die notwendige Flexibilität für Multi-Cloud- und Hybrid-Cloud-Umgebungen, wodurch AI-getriebene Unternehmen in der Lage sind, ihre Daten mit Flexibilität und Kontrolle zu verwalten.
EDB Postgres AI bringt Cloud-Agilität und Beobachtbarkeit in hybride Umgebungen mit souveräner Kontrolle. Dieser Ansatz ermöglicht es Unternehmen, die Verwaltung von AI-Modellen zu kontrollieren, während auch transaktionale, analytische und AI-Workloads in hybriden oder Multi-Cloud-Umgebungen gestreamt werden. Durch die Ermöglichung von Datenportabilität, granularer TCO-Kontrolle und einem cloud-ähnlichen Erlebnis auf verschiedenen Infrastrukturen unterstützt EDB AI-getriebene Unternehmen bei der Realisierung schnellerer, agilerer Antworten auf komplexe Datenanforderungen.
Wie unterstützt Postgres, insbesondere im Kontext der Verarbeitung sensibler Daten für AI-Modelle, die Datenregierung, Datenschutz und Sicherheit, insbesondere in Bezug auf die Handhabung sensibler Daten für AI-Modelle?
Da AI zu einem operativen Eckpfeiler und einem Wettbewerbsfaktor wird, stehen Unternehmen unter zunehmendem Druck, die Integrität der Daten zu schützen und strenge Compliance-Standards einzuhalten. Diese sich entwickelnde Landschaft stellt die Datenhoheit in den Vordergrund – wo strenge Regierung, Sicherheit und Sichtbarkeit nicht nur Prioritäten, sondern Voraussetzungen sind. Unternehmen müssen wissen und sicher sein, wo ihre Daten sind und wohin sie gehen.
Postgres ragt als Rückgrat für AI-fähige Datenumgebungen hervor, indem es erweiterte Fähigkeiten zur Verwaltung sensibler Daten in hybriden und Multi-Cloud-Umgebungen bietet. Seine Open-Source-Basis bedeutet, dass Unternehmen von ständiger Innovation profitieren, während die Erweiterungen von EDB die Einhaltung von Unternehmenssicherheit, granularer Zugriffskontrolle und tiefer Beobachtbarkeit sicherstellen – Schlüsselfaktoren für die verantwortungsvolle Handhabung von AI-Daten. Die Souverän-AI-Fähigkeiten von EDB bauen auf dieser Haltung auf, indem sie sich auf die Einführung von AI-Fähigkeiten in die Daten konzentrieren, wodurch die Kontrolle über die Bewegung der Daten erleichtert wird.
Was macht EDB Postgres einzigartig befähigt, AI-Workloads zu skalieren, während es gleichzeitig hohe Verfügbarkeit und Leistung aufrechterhält, insbesondere für mission-kritische Anwendungen?
EDB Postgres AI hilft, die Dateninfrastruktur zu einem strategischen Technologie-Asset zu erheben, indem es analytische und AI-Systeme näher an die Kern-Operationen und transaktionalen Daten der Kunden bringt – alles über Postgres verwaltet. Es bietet die Datenplattform für AI-Anwendungen, indem es die Infrastrukturkomplexität reduziert, die Kosten optimiert und die Unternehmensanforderungen an Datensouveränität, Leistung und Sicherheit erfüllt.
Eine elegante Datenplattform für moderne Betreiber, Entwickler, Dateningenieure und AI-Anwendungsbauer, die eine bewährte Lösung für ihre mission-kritischen Workloads benötigen, die den Zugriff auf Analyse- und AI-Funktionen ermöglicht, während sie das Kern-Operationssystem der Unternehmensdatenbank verwenden.
Vielen Dank für das großartige Interview, Leser, die mehr erfahren möchten, sollten EDB besuchen.












