Connect with us

Jeremy Kelway, VP of Engineering for Analytics, Data, and AI at EDB – Intervju-serie

Intervjuer

Jeremy Kelway, VP of Engineering for Analytics, Data, and AI at EDB – Intervju-serie

mm

Jeremy (Jezz) Kelway er en visepresident for ingeniørarbeid ved EDB, med base i Pacific Northwest, USA. Han leder et team som fokuserer på å levere Postgres-baserte analytiske og AI-løsninger. Med erfaring fra Database-as-a-Service (DBaaS)-ledelse, operasjonell ledelse og innovativ teknologilevering, har Jezz en sterk bakgrunn i å drive fremveksten av nye teknologier.

EDB støtter PostgreSQL for å møte bedriftsprioriteter, muliggjøre utvikling av cloud-naturlige applikasjoner, kostnadseffektiv migrering fra legacy-databaser og fleksibel distribusjon over hybride miljøer. Med en voksende talentpool og robust ytelse, sikrer EDB sikkerhet, pålitelighet og overlegen kundeopplevelse for kritiske applikasjoner.

Hvorfor blir Postgres stadig mer det foretrukne databasen for å bygge generative AI-applikasjoner, og hva er de viktigste funksjonene som gjør den egnet for denne utviklingslandskapet?

Med nærmere 75% av USAs bedrifter som adopterer AI, trenger disse bedriftene en grunnleggende teknologi som lar dem raskt og enkelt få tilgang til deres overflod av data og fullt ut nyttiggjøre AI. Dette er der Postgres kommer inn.

Postgres er kanskje det perfekte tekniske eksempelet på en varig teknologi som har gjenvunnet popularitet med større relevans i AI-æraen enn noen gang tidligere. Med robust arkitektur, nativ støtte for flere datatyper og utvidbarhet ved design, er Postgres en primær kandidat for bedrifter som søker å utnytte verdien av deres data for produksjonsklare AI i et suverent og sikret miljø.

Gjennom de 20 årene EDB har eksistert, eller de 30+ årene Postgres som teknologi har eksistert, har industrien gått gjennom evolusjoner, skift og innovasjoner, og gjennom alt dette fortsetter brukerne å “bare bruke Postgres” for å takle deres mest komplekse datautfordringer.

Hvordan brukes Retrieval-Augmented Generation (RAG) i dag, og hvordan ser du for deg at det vil forme fremtiden for den “intelligente økonomien”?

RAG-flere vinner stor popularitet og momentum, og med god grunn! Når det er rammet inn i konteksten av den “intelligente økonomien”, muliggjør RAG-flere tilgang til informasjon på måter som fremmer den menneskelige opplevelsen, sparer tid ved å automatisere og filtrere data og informasjonsutgang som ellers ville kreve betydelig manuell innsats og tid for å bli skapt. Den økte nøyaktigheten av “søke”-steget (Retrieval) kombinert med å kunne legge til spesifikk innhold til en mer omfattende trent LLM tilbyr en mengde muligheter for å akselerere og forbedre informert beslutningstaking med relevant data. En nyttig måte å tenke om dette er som om du har en dyktig forskningsassistent som ikke bare finner riktig informasjon, men også presenterer den på en måte som passer konteksten.

Hva er noen av de mest betydelige utfordringene organisasjonene møter når de implementerer RAG i produksjon, og hva strategier kan hjelpe med å møte disse utfordringene?

På et grunnleggende nivå er din datakvalitet din AI-differensierer. Nøyaktigheten av, og særlig de genererte svarene til, en RAG-applikasjon vil alltid være underlagt kvaliteten på dataene som brukes til å trene og supplere utgangen. Nivået av sofistikasjon som brukes av den generative modellen vil være mindre nyttig hvis/der inngangene er feil, noe som fører til mindre passende og uventede resultater for spørringen (ofte referert til som “hallusinasjoner”). Kvaliteten på dine datakilder vil alltid være nøkkel til suksessen for det hentede innholdet som maten til de generative trinnene – hvis utgangen ønskes å være så nøyaktig som mulig, vil de kontekstuelle datakildene for LLM måtte være så oppdatert som mulig.

Fra et ytelsesperspektiv; å adoptere en proaktiv holdning til hva din RAG-applikasjon prøver å oppnå – sammen med når og hvor dataene hentes – vil plassere deg godt til å forstå potensielle påvirkninger. For eksempel, hvis din RAG-flyt henter data fra transaksjonsdatakilder (dvs. konstant oppdaterte DB’er som er kritiske for din forretning), overvåking av ytelsen til disse nøkkeldatakildene, sammen med applikasjonene som trekker data fra disse kildene, vil gi forståelse for påvirkningene av dine RAG-flyt-trinn. Disse tiltakene er et utmerket skritt for å håndtere eventuelle eller sanntidsimpulsiver til ytelsen til kritiske transaksjonsdatakilder. I tillegg kan denne informasjonen også gi verdifull kontekst for å justere RAG-applikasjonen for å fokusere på egnet datahenting.

Gitt den økende populariteten av spesialiserte vektor-databaser for AI, hva fordeler tilbyr Postgres over disse løsningene, særlig for bedrifter som søker å operasjonalisere AI-arbeidsbelastninger?

En kritisk vektor-database har evnen til å støtte krevende AI-arbeidsbelastninger samtidig som den sikrer datasikkerhet, tilgjengelighet og fleksibilitet til å integrere med eksisterende datakilder og strukturert informasjon. Bygging av en AI/RAG-løsning vil ofte bruke en vektor-database, da disse applikasjonene innebærer likhetvurderinger og anbefalinger som arbeider med høydimensjonale data. Vektor-databasene tjener som en effektiv og effektiv datakilde for lagring, ledelse og henting for disse kritiske datapipelinene.

Hvordan håndterer EDB Postgres kompleksiteten ved å håndtere vektor-data for AI, og hva er de viktigste fordelene med å integrere AI-arbeidsbelastninger i et Postgres-miljø?

Mens Postgres ikke har nativ vektor-funksjonalitet, er pgvector en utvidelse som lar deg lagre vektor-dataene dine sammen med resten av dine data i Postgres. Dette lar bedrifter utnytte vektor-funksjonalitet sammen med eksisterende database-strukturer, forenkler ledelsen og distribusjonen av AI-applikasjoner ved å redusere behovet for separate data-lagre og komplekse dataoverføringer.

Med Postgres som en sentral spiller i både transaksjonelle og analytiske arbeidsbelastninger, hvordan hjelper det organisasjonene med å strømlinjeforme deres datapipelinene og låse opp raskere innsikt uten å legge til kompleksitet?

Disse datapipelinene er effektivt drivkraften bak AI-applikasjoner. Med de mange data-lagringsformatene, -plasseringene og -typene, blir kompleksitetene rundt hvordan henting-fasen oppnås raskt en merkbar utfordring, særlig når AI-applikasjonene flytter fra Proof-of-Concept til produksjon.

EDB Postgres AI Pipelines-utvidelse er et eksempel på hvordan Postgres spiller en nøkkelrolle i å forme “data-ledelses”-delen av AI-applikasjons-historien. Forenkling av data-behandling med automatiserte pipeliner for henting av data fra Postgres eller objekt-lagring, generering av vektor-embeddings som ny data innføres, og utløsing av oppdateringer til embeddings når kilde-data endres – betyr alltid oppdatert data for spørring og henting uten trøblete vedlikehold.

Hva innovasjoner eller utviklinger kan vi forvente fra Postgres i nær fremtid, særlig når AI fortsetter å utvikle seg og krever mer av data-infrastrukturen?

Vektor-databasen er ingen ferdig artikkel, og videre utvikling og forbedring forventes når bruken og avhengigheten av vektor-database-teknologi fortsetter å vokse. PostgreSQL-samfunnet fortsetter å innovere i dette rommet, og søker metoder for å forbedre indeksering for å tillate mer komplekse søke-kriterier sammen med fremgangen i pgvector-funksjonaliteten selv.

Hvordan støtter Postgres, særlig med EDBs tilbud, behovet for multi-cloud og hybrid-cloud-distribusjoner, og hvorfor er denne fleksibiliteten viktig for AI-drevne bedrifter?

En nylig EDB-studie viser at 56% av bedriftene nå distribuerer kritiske arbeidsbelastninger i en hybrid-modell, og understreker behovet for løsninger som støtter både smidighet og data-suverenitet. Postgres, med EDBs forbedringer, tilbyr den essensielle fleksibiliteten for multi-cloud og hybrid-cloud-miljøer, og gir AI-drevne bedrifter mulighet til å håndtere sine data med både smidighet og kontroll.

EDB Postgres AI bringer sky-agilitet og overvåkbarhet til hybrid-miljøer med suveren kontroll. Dette tilnærmingen lar bedrifter kontrollere ledelsen av AI-modeller, samtidig som de strømlinjeformer transaksjonelle, analytiske og AI-arbeidsbelastninger over hybrid eller multi-cloud-miljøer. Ved å muliggjøre data-portabilitet, granulert TCO-kontroll og en sky-lignende opplevelse på en rekke infrastrukturer, støtter EDB AI-drevne bedrifter i å realisere raskere og mer smidige responser til komplekse data-krav.

Ettersom AI blir mer integrert i bedriftssystemer, hvordan støtter Postgres data-styring, personvern og sikkerhet, særlig i konteksten av å håndtere følsomme data for AI-modeller?

Ettersom AI blir både en operasjonell hjørnestein og en konkurranse-fordel, møter bedrifter økende press for å sikre data-integritet og opprettholde strenge overholdelses-standarder. Dette utviklingslandskapet setter data-suverenitet i fremste rekke – hvor streng styring, sikkerhet og synlighet ikke bare er prioriteringer, men forutsetninger. Bedrifter må vite og være sikre på hvor deres data er, og hvor det går.

Postgres utmerker seg som ryggraden for AI-klare data-miljøer, og tilbyr avanserte funksjoner for å håndtere følsomme data over hybrid og multi-cloud-miljøer. Dens åpne kilde-grunnlag betyr at bedrifter kan dra nytte av konstant innovasjon, samtidig som EDBs forbedringer sikrer overholdelse av bedrifts-gradert sikkerhet, granulert tilgangskontroll og dypt overvåkbarhet – nøkkel for å håndtere AI-data på en ansvarlig måte. EDBs suverene AI-kapasiteter bygger på denne holdningen, og fokuserer på å bringe AI-kapasitet til dataene, og dermed muliggjør kontroll over hvor disse dataene flytter til og fra.

Hva gjør EDB Postgres unikt egnet til å skalerer AI-arbeidsbelastninger samtidig som det opprettholder høy tilgjengelighet og ytelse, særlig for kritiske applikasjoner?

EDB Postgres AI hjelper med å heve data-infrastrukturen til en strategisk teknologi-ressurs ved å bringe analytiske og AI-systemer nærmere kundens kjernetransaksjonelle og operasjonelle data – alt ledet gjennom Postgres. Det tilbyr data-plattform-grunnlaget for AI-drevne applikasjoner ved å redusere infrastruktur-kompleksitet, optimalisere kostnadseffektivitet og møte bedrifts-krav til data-suverenitet, ytelse og sikkerhet.

En elegant data-plattform for moderne operatører, utviklere, data-ingeniører og AI-applikasjons-byggere som krever en prøvet løsning for sine kritiske arbeidsbelastninger, og som gir tilgang til analytiske og AI-kapasiteter samtidig som de bruker bedriftens kjernetransaksjonelle database-system.

Takk for det flotte intervjuet, lesere som ønsker å lære mer kan besøke EDB.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.