Interviews
Jeremy Kelway, VP of Engineering for Analytics, Data, and AI at EDB – Interview Series

Jeremy (Jezz) Kelway is een Vice President of Engineering bij EDB, gevestigd in de Pacific Northwest, USA. Hij leidt een team dat zich richt op het leveren van Postgres-gebaseerde analytics- en AI-oplossingen. Met ervaring in Database-as-a-Service (DBaaS)-beheer, operationeel leiderschap en innovatieve technologielevering, heeft Jezz een sterke achtergrond in het stimuleren van vooruitgang in opkomende technologieën.
EDB ondersteunt PostgreSQL om aan te sluiten bij bedrijfsprioriteiten, waardoor cloud-native applicatieontwikkeling, kosteneffectieve migratie van legacy-databases en flexibele implementatie in hybride omgevingen mogelijk wordt. Met een groeiend talentenbestand en robuuste prestaties zorgt EDB voor beveiliging, betrouwbaarheid en een superieure klantbeleving voor mission-critical applicaties.
Waarom wordt Postgres steeds vaker de voorkeursdatabase voor het bouwen van generatieve AI-toepassingen, en welke sleutelfuncties maken het geschikt voor deze evoluerende landschap?
Met bijna 75% van de Amerikaanse bedrijven die AI adopteren, hebben deze bedrijven een fundamentale technologie nodig die het hen mogelijk maakt om snel en gemakkelijk toegang te krijgen tot hun overvloed aan gegevens en volledig AI te omarmen. Hier komt Postgres om de hoek kijken.
Postgres is misschien het perfecte technische voorbeeld van een duurzame technologie die in populariteit is toegenomen met een grotere relevantie in de AI-era dan ooit tevoren. Met een robuuste architectuur, native ondersteuning voor meerdere gegevenstypen en uitbreidbaarheid door ontwerp, is Postgres een prima kandidaat voor ondernemingen die de waarde van hun gegevens willen benutten voor productieklare AI in een soevereine en beveiligde omgeving.
Door de 20 jaar dat EDB heeft bestaan, of de 30+ dat Postgres als technologie heeft bestaan, is de industrie door evoluties, verschuivingen en innovaties gegaan, en door het allerevalligste gebruiken gebruikers “gewoon Postgres” om hun meest complexe gegevensuitdagingen aan te pakken.
Hoe wordt Retrieval-Augmented Generation (RAG) vandaag toegepast, en hoe ziet u het vormgeven van de toekomst van de “Intelligent Economy”?
RAG-stromen winnen aan populariteit en momentum, en terecht! Wanneer RAG-stromen worden geplaatst in de context van de ‘Intelligent Economy’, maken ze het mogelijk om toegang te krijgen tot informatie op manieren die de menselijke ervaring faciliteren, tijd besparen door gegevens en informatie-uitvoer te automatiseren en te filteren die anders aanzienlijke handmatige inspanning en tijd zouden vergen om te creëren. De toegenomen nauwkeurigheid van de ‘zoek’-stap (Retrieval) in combinatie met de mogelijkheid om specifieke inhoud toe te voegen aan een breder getrainde LLM biedt een schat aan kansen om geïnformeerde besluitvorming met relevante gegevens te versnellen en te verbeteren. Een nuttige manier om hierover na te denken is alsof u een ervaren onderzoeksassistent heeft die niet alleen de juiste informatie vindt, maar deze ook presenteert op een manier die past bij de context.
Wat zijn enkele van de meest significante uitdagingen waar organisaties mee te maken krijgen bij het implementeren van RAG in productie, en welke strategieën kunnen helpen om deze uitdagingen aan te pakken?
Op fundamenteel niveau is uw gegevenskwaliteit uw AI-differentiator. De nauwkeurigheid van, en met name de gegenereerde antwoorden van, een RAG-toepassing zal altijd onderhevig zijn aan de kwaliteit van de gegevens die worden gebruikt om de uitvoer te trainen en aan te vullen. Het niveau van sofisticatie dat wordt toegepast door het generatieve model zal minder gunstig zijn als/de inputs ondeugdelijk zijn, waardoor minder geschikte en onverwachte resultaten voor de query ontstaan (vaak aangeduid als ‘hallucinaties’). De kwaliteit van uw gegevensbronnen zal altijd de sleutel zijn tot het succes van de opgehaalde inhoud die de generatieve stappen voedt – als de uitvoer zo nauwkeurig mogelijk moet zijn, moeten de contextuele gegevensbronnen voor de LLM zo up-to-date mogelijk zijn.
Vanuit een prestatieperspectief; het aannemen van een proactieve houding ten aanzien van wat uw RAG-toepassing probeert te bereiken – evenals wanneer en waar de gegevens worden opgehaald – zal u in staat stellen om potentiële impact te begrijpen. Als uw RAG-stroom bijvoorbeeld gegevens ophaalt uit transactiegegevensbronnen (d.w.z. constant bijgewerkte databases die kritiek zijn voor uw bedrijf), zal het bewaken van de prestaties van deze belangrijke gegevensbronnen, evenals de toepassingen die gegevens uit deze bronnen opvragen, u helpen om de impact van uw RAG-stroomstappen te begrijpen. Deze maatregelen zijn een uitstekende stap voor het beheren van potentiële of real-time implicaties voor de prestaties van kritieke transactiegegevensbronnen. Bovendien kan deze informatie ook waardevolle context bieden voor het afstemmen van de RAG-toepassing om zich te concentreren op passende gegevensopname.
Gegeven de opkomst van gespecialiseerde vector-databases voor AI, welke voordelen biedt Postgres boven deze oplossingen, met name voor ondernemingen die AI-werklasten willen operationaliseren?
Een mission-critical vector-database heeft de mogelijkheid om veeleisende AI-werklasten te ondersteunen, terwijl het zorgt voor gegevensbeveiliging, beschikbaarheid en flexibiliteit om te integreren met bestaande gegevensbronnen en gestructureerde informatie. Het bouwen van een AI/RAG-oplossing zal vaak een vector-database gebruiken, omdat deze toepassingen overeenkomstbeoordelingen en aanbevelingen betreffen die werken met hoogdimensionale gegevens. De vector-databases dienen als een efficiënte en effectieve gegevensbron voor opslag, beheer en ophaling voor deze kritieke gegevenspijpleidingen.
Hoe behandelt EDB Postgres de complexiteit van het beheren van vectorgegevens voor AI, en wat zijn de belangrijkste voordelen van het integreren van AI-werklasten in een Postgres-omgeving?
Hoewel Postgres geen native vector-functionaliteit heeft, is pgvector een extensie die u in staat stelt om uw vectorgegevens op te slaan naast de rest van uw gegevens in Postgres. Dit stelt ondernemingen in staat om vector-functionaliteit te benutten naast bestaande databasestructuren, waardoor het beheer en de implementatie van AI-toepassingen worden vereenvoudigd door de noodzaak voor separate gegevensopslag en complexe gegevensoverdrachten te verminderen.
Terwijl Postgres een centrale speler wordt in zowel transactie- als analytische werklasten, hoe helpt het ondernemingen om hun gegevenspijpleidingen te stroomlijnen en snellere inzichten te ontgrendelen zonder complexiteit toe te voegen?
Deze gegevenspijpleidingen zijn effectief brandstof voor AI-toepassingen. Met de veelheid aan gegevensopslagformaten, -locaties en -typen, worden de complexiteiten van hoe de ophalfase wordt bereikt snel een tastbare uitdaging, vooral wanneer de AI-toepassingen van Proof-of-Concept naar Productie gaan.
De EDB Postgres AI Pipelines-extensie is een voorbeeld van hoe Postgres een sleutelrol speelt in het vormgeven van het ‘gegevensbeheer’-deel van het AI-toepassingsverhaal. Door gegevensverwerking te vereenvoudigen met geautomatiseerde pijpleidingen voor het ophalen van gegevens uit Postgres of objectopslag, het genereren van vector-embeddings als nieuwe gegevens worden ingevoerd en het triggeren van updates voor embeddings wanneer de brongegevens veranderen – waardoor altijd up-to-date gegevens voor query’s en ophaling zonder tijdrovend onderhoud mogelijk worden gemaakt.
Welke innovaties of ontwikkelingen kunnen we in de nabije toekomst van Postgres verwachten, vooral nu AI blijft evolueren en meer van de gegevensinfrastructuur vraagt?
De vector-database is nog lang niet af; verdere ontwikkeling en verbetering wordt verwacht naarmate het gebruik en de afhankelijkheid van vector-database-technologie blijven groeien. De PostgreSQL-gemeenschap blijft innoveren in deze ruimte, op zoek naar methoden om indexing te verbeteren om complexere zoekcriteria toe te staan, naast de voortgang van de pgvector-mogelijkheid zelf.
Hoe ondersteunt Postgres, vooral met EDB’s aanbod, de behoefte aan multi-cloud- en hybride cloud-implementaties, en waarom is deze flexibiliteit belangrijk voor AI-gedreven ondernemingen?
Een recente EDB-studie toont aan dat 56% van de ondernemingen nu mission-critical werklasten in een hybride model implementeert, waardoor de behoefte aan oplossingen die zowel agility als data-sovereiniteit ondersteunen, wordt benadrukt. Postgres, met EDB’s verbeteringen, biedt de essentiële flexibiliteit voor multi-cloud- en hybride cloud-omgevingen, waardoor AI-gedreven ondernemingen hun gegevens kunnen beheren met zowel flexibiliteit als controle.
EDB Postgres AI brengt cloud-agility en observabiliteit naar hybride omgevingen met soevereine controle. Deze benadering stelt ondernemingen in staat om de beheerder van AI-modellen te controleren, terwijl ze ook transactie-, analytische- en AI-werklasten over hybride of multi-cloud-omgevingen stroomlijnen. Door gegevenstransport te mogelijk maken, granulaire TCO-controle en een cloud-achtige ervaring op een verscheidenheid aan infrastructuur te bieden, ondersteunt EDB AI-gedreven ondernemingen bij het realiseren van snellere, meer agile antwoorden op complexe gegevensvragen.
Terwijl AI dieper in bedrijfssystemen wordt geïntegreerd, hoe ondersteunt Postgres gegevensbeheer, -privacy en -beveiliging, vooral in de context van het omgaan met gevoelige gegevens voor AI-modellen?
Terwijl AI zowel een operationeel hoeksteen als een competitief differentiator wordt, staan ondernemingen onder druk om de integriteit van hun gegevens te waarborgen en strikte compliance-normen te handhaven. Deze evoluerende landschap plaatst gegevenssoevereiniteit centraal – waar strikte governance, beveiliging en zichtbaarheid niet alleen prioriteiten maar voorwaarden zijn. Bedrijven moeten weten en zeker zijn over waar hun gegevens zijn en waar ze naartoe gaan.
Postgres blinkt uit als de ruggengraat voor AI-klaar gegevensomgevingen, met geavanceerde mogelijkheden om gevoelige gegevens over hybride en multi-cloud-omgevingen te beheren. De open-source-fundering betekent dat ondernemingen profiteren van constante innovatie, terwijl EDB’s verbeteringen ervoor zorgen dat er aan ondernemingsklasse-beveiliging, granulaire toegangscontrole en diepe observabiliteit wordt voldaan – essentieel voor het verantwoordelijk omgaan met AI-gegevens. EDB’s Sovereign AI-mogelijkheden bouwen voort op deze houding, met als focus het brengen van AI-mogelijkheden naar de gegevens, waardoor controle over waar die gegevens naartoe gaan en vandaan komen, wordt gefaciliteerd.
Wat maakt EDB Postgres uniek in staat om AI-werklasten te schalen terwijl hoge beschikbaarheid en prestaties worden gehandhaafd, vooral voor mission-critical applicaties?
EDB Postgres AI helpt om de data-infrastructuur te verheffen tot een strategische technologie-asset door analytische en AI-systemen dichter bij de kernoperationele en transactiegegevens van klanten te brengen – allemaal beheerd via Postgres. Het biedt de gegevensplatformbasis voor AI-gedreven apps door infrastructuurrecomplexiteit te verminderen, kosten-efficiëntie te optimaliseren en aan ondernemingsvereisten voor gegevenssoevereiniteit, prestaties en beveiliging te voldoen.
Een elegante data-platform voor moderne operators, ontwikkelaars, data-engineers en AI-toepassingsbouwers die een geteste oplossing nodig hebben voor hun mission-critical werklasten, waardoor toegang tot analytics- en AI-mogelijkheden wordt geboden terwijl het ondernemingsbrede operationele databasesysteem wordt gebruikt.
Bedankt voor het geweldige interview, lezers die meer willen leren, moeten bezoeken EDB.












