Connect with us

Jeremy Kelway, VP of Engineering for Analytics, Data, and AI at EDB – Interview Series

Interviste

Jeremy Kelway, VP of Engineering for Analytics, Data, and AI at EDB – Interview Series

mm

Jeremy (Jezz) Kelway è un Vice President of Engineering presso EDB, con sede nel Pacific Northwest, USA. Lui guida un team focalizzato sulla consegna di soluzioni di analisi e AI basate su Postgres. Con esperienza nella gestione di Database-as-a-Service (DBaaS), leadership operativa e consegna di tecnologie innovative, Jezz ha una solida esperienza nel guidare i progressi nelle tecnologie emergenti.

EDB supporta PostgreSQL per allinearsi con le priorità aziendali, abilitando lo sviluppo di applicazioni cloud-native, la migrazione efficiente in termini di costo da database legacy e la flessibilità di distribuzione in ambienti ibridi. Con un bacino di talenti in crescita e prestazioni robuste, EDB garantisce sicurezza, affidabilità e esperienze clienti superiori per applicazioni mission-critical.

Perché Postgres sta diventando sempre più il database di scelta per la costruzione di applicazioni di intelligenza artificiale generativa, e quali sono le caratteristiche chiave che lo rendono adatto a questo panorama in evoluzione?

Con quasi il 75% delle aziende statunitensi che adottano l’AI, queste aziende richiedono una tecnologia fondamentale che consenta loro di accedere rapidamente e facilmente ai loro dati e di abbracciare appieno l’AI. È qui che entra in gioco Postgres.

Postgres è forse l’esempio tecnico perfetto di una tecnologia duratura che è riemersa in popolarità con una rilevanza maggiore nell’era dell’AI di quanto non sia mai stato prima. Con un’architettura robusta, supporto nativo per più tipi di dati e estensibilità per design, Postgres è un candidato ideale per le aziende che cercano di sfruttare il valore dei loro dati per AI pronta alla produzione in un ambiente sovrano e sicuro.

Nel corso dei 20 anni di esistenza di EDB, o dei 30+ anni di esistenza di Postgres come tecnologia, l’industria ha attraversato evoluzioni, spostamenti e innovazioni, e in tutto questo gli utenti continuano a “usare semplicemente Postgres” per affrontare le loro sfide di dati più complesse.

Come viene applicata oggi la generazione aumentata di recupero (RAG) e come pensi che plasmerà il futuro dell'”Economia intelligente”?

I flussi RAG stanno guadagnando popolarità e slancio, e per buone ragioni! Quando inquadrati nel contesto dell’“Economia intelligente”, i flussi RAG stanno abilitando l’accesso alle informazioni in modi che facilitano l’esperienza umana, risparmiando tempo attraverso l’automazione e il filtraggio dell’output dei dati e delle informazioni che altrimenti richiederebbero un notevole sforzo manuale e tempo per essere creati. L’aumentata accuratezza del passaggio di “ricerca” (Recupero) combinata con la possibilità di aggiungere contenuti specifici a un LLM più ampiamente formato offre una grande opportunità di accelerare e migliorare la presa di decisioni informate con dati rilevanti. Un modo utile per pensare a questo è come se si avesse un abile assistente di ricerca che non solo trova le informazioni giuste, ma le presenta anche in un modo che si adatta al contesto.

Quali sono alcune delle sfide più significative che le organizzazioni affrontano nell’implementazione di RAG in produzione e quali strategie possono aiutare ad affrontare queste sfide?

A livello fondamentale, la qualità dei vostri dati è il vostro differenziale AI. L’accuratezza delle risposte generate di un’applicazione RAG sarà sempre soggetta alla qualità dei dati utilizzati per addestrare e arricchire l’output. Il livello di sofisticazione applicato dal modello generativo sarà meno benefico se/when gli input sono difettosi, portando a risultati meno appropriati e inaspettati per la query (spesso definiti “allucinazioni”). La qualità delle vostre fonti di dati sarà sempre fondamentale per il successo del contenuto recuperato che alimenta i passaggi generativi – se l’output desiderato è il più preciso possibile, le fonti di dati contestuali per il LLM dovranno essere aggiornate il più possibile.

Da una prospettiva di prestazioni; adottare un atteggiamento proattivo su ciò che la vostra applicazione RAG sta cercando di raggiungere – insieme a quando e dove i dati vengono recuperati – vi posizionerà bene per comprendere gli impatti potenziali. Ad esempio, se il vostro flusso RAG recupera dati da fonti di dati transazionali (ad es. database costantemente aggiornati critici per il vostro business), monitorare le prestazioni di queste fonti di dati chiave, insieme alle applicazioni che attingono dati da queste fonti, fornirà una comprensione degli impatti del vostro flusso RAG. Queste misure sono un ottimo passo per gestire qualsiasi implicazione potenziale o in tempo reale sulle prestazioni delle fonti di dati transazionali critiche. Inoltre, queste informazioni possono anche fornire un contesto prezioso per regolare l’applicazione RAG per concentrarsi sul recupero dei dati appropriati.

Considerata la crescita dei database vettoriali specializzati per l’AI, quali vantaggi offre Postgres rispetto a queste soluzioni, in particolare per le aziende che cercano di operazionalizzare i carichi di lavoro AI?

Un database vettoriale mission-critical ha la capacità di supportare carichi di lavoro AI impegnativi garantendo sicurezza dei dati, disponibilità e flessibilità di integrazione con fonti di dati esistenti e informazioni strutturate. La costruzione di una soluzione AI/RAG spesso utilizza un database vettoriale poiché queste applicazioni coinvolgono valutazioni di similarità e raccomandazioni che lavorano con dati ad alta dimensionalità. I database vettoriali servono come fonte di dati efficiente ed efficace per archiviazione, gestione e recupero per questi pipeline di dati critici.

Come gestisce EDB Postgres le complessità della gestione dei dati vettoriali per l’AI e quali sono i principali vantaggi dell’integrazione dei carichi di lavoro AI in un ambiente Postgres?

Sebbene Postgres non abbia una capacità vettoriale nativa, pgvector è un’estensione che consente di archiviare i dati vettoriali insieme al resto dei dati in Postgres. Ciò consente alle aziende di sfruttare le capacità vettoriali accanto alle strutture di database esistenti, semplificando la gestione e la distribuzione delle applicazioni AI riducendo la necessità di archivi di dati separati e trasferimenti di dati complessi.

Con Postgres che diventa un attore centrale sia nei carichi di lavoro transazionali che in quelli analitici, come aiuta le organizzazioni a semplificare i loro pipeline di dati e a sbloccare insight più rapidi senza aggiungere complessità?

Questi pipeline di dati stanno effettivamente alimentando le applicazioni AI. Con i numerosi formati di archiviazione dei dati, posizioni e tipi di dati, le complessità di come viene raggiunto il passaggio di recupero diventano rapidamente una sfida tangibile, in particolare poiché le applicazioni AI si spostano dalla Proof-of-Concept alla produzione.

L’estensione EDB Postgres AI Pipelines è un esempio di come Postgres stia giocando un ruolo chiave nel plasmare la parte “gestione dei dati” della storia dell’applicazione AI. Semplificando l’elaborazione dei dati con pipeline automatizzate per il recupero dei dati da Postgres o archiviazione di oggetti, generazione di embedding vettoriali come nuovi dati vengono inghiottiti e attivazione degli aggiornamenti degli embedding quando i dati di origine cambiano – significando dati sempre aggiornati per query e recupero senza manutenzione tediosa.

Quali innovazioni o sviluppi possiamo aspettarci da Postgres nel prossimo futuro, in particolare poiché l’AI continua a evolversi e a richiedere sempre più dalle infrastrutture dei dati?

Il database vettoriale non è affatto un articolo finito, ulteriore sviluppo e potenziamento è previsto poiché l’utilizzo e la dipendenza dalla tecnologia del database vettoriale continuano a crescere. La comunità PostgreSQL continua a innovare in questo spazio, cercando metodi per migliorare l’indicizzazione per consentire criteri di ricerca più complessi accanto al progresso della capacità pgvector stessa.

Come Postgres, in particolare con le offerte di EDB, supporta la necessità di distribuzioni multi-cloud e ibride, e perché questa flessibilità è importante per le aziende guidate dall’AI?

Uno studio recente di EDB mostra che il 56% delle aziende distribuisce carichi di lavoro mission-critical in un modello ibrido, evidenziando la necessità di soluzioni che supportino sia l’agilità che la sovranità dei dati. Postgres, con gli aggiornamenti di EDB, fornisce la flessibilità essenziale per ambienti multi-cloud e ibridi, consentendo alle aziende guidate dall’AI di gestire i propri dati con flessibilità e controllo.

EDB Postgres AI porta l’agilità cloud e l’osservabilità in ambienti ibridi con controllo sovrano. Questo approccio consente alle aziende di controllare la gestione dei modelli AI, semplificando al tempo stesso i carichi di lavoro transazionali, analitici e AI attraverso ambienti ibridi o multi-cloud. Abilitando la portabilità dei dati, il controllo del TCO granulare e un’esperienza simile a quella cloud su una varietà di infrastrutture, EDB supporta le aziende guidate dall’AI nel realizzare risposte più rapide e più agili alle complesse richieste dei dati.

Man mano che l’AI si integra ulteriormente nei sistemi aziendali, come Postgres supporta la governance dei dati, la privacy e la sicurezza, in particolare nel contesto della gestione dei dati sensibili per i modelli AI?

Man mano che l’AI diventa sia un angolo operativo che un differenziale competitivo, le aziende affrontano una pressione crescente per salvaguardare l’integrità dei dati e rispettare rigorosi standard di conformità. Questo panorama in evoluzione pone la sovranità dei dati al centro – dove una rigorosa governance, sicurezza e visibilità non sono solo priorità ma prerequisiti. Le aziende devono sapere e essere certe di dove si trovano i loro dati e dove stanno andando.

Postgres eccelle come colonna portante per ambienti di dati pronti all’AI, offrendo capacità avanzate per gestire dati sensibili in ambienti ibridi e multi-cloud. La sua fondazione open-source significa che le aziende traggono beneficio da un’innovazione costante, mentre gli aggiornamenti di EDB garantiscono l’adeguamento a standard di sicurezza di livello aziendale, controlli di accesso granulari e una profonda osservabilità – chiave per la gestione responsabile dei dati AI. Le capacità di AI sovrana di EDB si basano su questa posizione, concentrandosi sull’introduzione della capacità AI nei dati, facilitando così il controllo su dove quei dati si stanno spostando e da dove provengono.

Cosa rende EDB Postgres unicamente in grado di scalare i carichi di lavoro AI mantenendo alta disponibilità e prestazioni, in particolare per applicazioni mission-critical?

EDB Postgres AI aiuta a elevare l’infrastruttura dei dati a un asset tecnologico strategico portando sistemi analitici e AI più vicini ai dati operativi e transazionali core dei clienti – tutto gestito attraverso Postgres. Fornisce la piattaforma di dati di base per le applicazioni AI-driven riducendo la complessità dell’infrastruttura, ottimizzando l’efficienza dei costi e soddisfacendo i requisiti aziendali per la sovranità dei dati, le prestazioni e la sicurezza.

Una piattaforma di dati elegante per operatori moderni, sviluppatori, ingegneri di dati e costruttori di applicazioni AI che richiedono una soluzione collaudata per i loro carichi di lavoro mission-critical, consentendo l’accesso a capacità analitiche e AI utilizzando il sistema di database operativo core dell’azienda.

Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare EDB.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.