Connect with us

Jeremy Kelway, VP de Ingeniería para Análisis, Datos y AI en EDB – Serie de Entrevistas

Entrevistas

Jeremy Kelway, VP de Ingeniería para Análisis, Datos y AI en EDB – Serie de Entrevistas

mm

Jeremy (Jezz) Kelway es Vicepresidente de Ingeniería en EDB, con sede en el noroeste del Pacífico, EE. UU. Lidera un equipo centrado en ofrecer soluciones de análisis y AI basadas en Postgres. Con experiencia en gestión de Database-as-a-Service (DBaaS), liderazgo operativo y entrega de tecnología innovadora, Jezz tiene una sólida formación en impulsar avances en tecnologías emergentes.

EDB admite PostgreSQL para alinearse con las prioridades empresariales, permitiendo el desarrollo de aplicaciones nativas en la nube, la migración rentable desde bases de datos heredadas y la implementación flexible en entornos híbridos. Con un creciente grupo de talentos y un rendimiento sólido, EDB garantiza la seguridad, la confiabilidad y experiencias superiores para aplicaciones críticas para la misión.

¿Por qué Postgres se está convirtiendo cada vez más en la base de datos para construir aplicaciones de inteligencia artificial generativa, y qué características clave lo hacen adecuado para este paisaje en evolución?

Con casi el 75% de las empresas estadounidenses adoptando la inteligencia artificial, estas empresas requieren una tecnología fundamental que les permita acceder rápidamente y con facilidad a su abundancia de datos y abrazar completamente la inteligencia artificial. Es aquí donde entra en juego Postgres.

Postgres es quizás el ejemplo técnico perfecto de una tecnología duradera que ha resurgido en popularidad con una mayor relevancia en la era de la inteligencia artificial que nunca antes. Con una arquitectura robusta, soporte nativo para múltiples tipos de datos y extensibilidad por diseño, Postgres es un candidato principal para las empresas que buscan aprovechar el valor de sus datos para la inteligencia artificial lista para producción en un entorno soberano y seguro.

A lo largo de los 20 años que EDB ha existido, o los 30+ que Postgres ha existido como tecnología, la industria ha pasado por evoluciones, cambios y innovaciones, y a través de todo, los usuarios siguen “usando Postgres” para abordar sus desafíos de datos más complejos.

¿Cómo se está aplicando hoy en día la Generación con Recuperación (RAG) y cómo ve usted que dará forma al futuro de la “Economía Inteligente”?

Los flujos RAG están ganando popularidad y momentum, y con razón. Cuando se enmarcan en el contexto de la ‘Economía Inteligente’, los flujos RAG permiten el acceso a la información de maneras que facilitan la experiencia humana, ahorrando tiempo al automatizar y filtrar la salida de datos y información que de otro modo requeriría un esfuerzo y tiempo manual significativos para ser creada. La mayor precisión del paso de “búsqueda” (Recuperación) combinada con la capacidad de agregar contenido específico a un LLM más ampliamente entrenado ofrece una gran cantidad de oportunidades para acelerar y mejorar la toma de decisiones informadas con datos relevantes. Una forma útil de pensar en esto es como si tuviera un asistente de investigación capacitado que no solo encuentra la información correcta, sino que también la presenta de una manera que se adapte al contexto.

¿Cuáles son algunos de los desafíos más significativos que enfrentan las organizaciones al implementar RAG en producción, y qué estrategias pueden ayudar a abordar estos desafíos?

En el nivel fundamental, la calidad de sus datos es su diferenciador de inteligencia artificial. La precisión de, y en particular las respuestas generadas de, una aplicación RAG siempre estará sujeta a la calidad de los datos que se utilizan para entrenar y aumentar la salida. El nivel de sofisticación aplicado por el modelo generativo será menos beneficioso si/cuando las entradas son defectuosas, lo que lleva a resultados menos apropiados e inesperados para la consulta (a menudo denominados ‘alucinaciones’). La calidad de sus fuentes de datos siempre será clave para el éxito del contenido recuperado que alimenta los pasos generativos—si la salida se desea que sea lo más precisa posible, las fuentes de datos contextuales para el LLM deberán estar lo más actualizadas posible.

Desde una perspectiva de rendimiento; adoptar una postura proactiva sobre lo que su aplicación RAG está tratando de lograr—junto con cuándo y dónde se está recuperando los datos—lo posicionará bien para comprender los impactos potenciales. Por ejemplo, si su flujo RAG está recuperando datos de fuentes de datos transaccionales (es decir, bases de datos actualizadas constantemente que son críticas para su negocio), monitorear el rendimiento de esas fuentes de datos clave, junto con las aplicaciones que extraen datos de estas fuentes, proporcionará una comprensión de los impactos potenciales en el rendimiento de las fuentes de datos transaccionales críticas. Estas medidas son un excelente paso para gestionar cualquier implicación potencial o en tiempo real en el rendimiento de las fuentes de datos transaccionales críticas. Además, esta información también puede proporcionar un contexto valioso para ajustar la aplicación RAG para centrarse en la recuperación de datos adecuada.

¿Cuáles son las ventajas que ofrece Postgres sobre las soluciones de bases de datos vectoriales especializadas, particularmente para las empresas que buscan operacionalizar las cargas de trabajo de inteligencia artificial?

Una base de datos vectorial de misión crítica tiene la capacidad de admitir cargas de trabajo de inteligencia artificial exigentes al tiempo que garantiza la seguridad de los datos, la disponibilidad y la flexibilidad para integrarse con fuentes de datos existentes y información estructurada. La construcción de una solución de inteligencia artificial/RAG a menudo utiliza una base de datos vectorial, ya que estas aplicaciones involucran evaluaciones de similitud y recomendaciones que funcionan con datos de alta dimensión. Las bases de datos vectoriales sirven como una fuente de datos eficiente y efectiva para el almacenamiento, la gestión y la recuperación de estos datos críticos.

¿Cómo maneja EDB Postgres las complejidades de la gestión de datos vectoriales para la inteligencia artificial, y cuáles son los beneficios clave de integrar las cargas de trabajo de inteligencia artificial en un entorno Postgres?

Si bien Postgres no tiene una capacidad vectorial nativa, pgvector es una extensión que permite almacenar sus datos vectoriales junto con el resto de sus datos en Postgres. Esto permite a las empresas aprovechar las capacidades vectoriales junto con las estructuras de base de datos existentes, simplificando la gestión y la implementación de aplicaciones de inteligencia artificial al reducir la necesidad de almacenamientos de datos separados y transferencias de datos complejas.

¿Cómo ayuda Postgres a las organizaciones a simplificar sus pipelines de datos y a desbloquear conocimientos más rápidos sin agregar complejidad, especialmente para aplicaciones críticas para la misión?

Estos pipelines de datos están alimentando efectivamente las aplicaciones de inteligencia artificial. Con la multitud de formatos de almacenamiento de datos, ubicaciones y tipos de datos, las complejidades de cómo se logra la fase de recuperación se convierten rápidamente en un desafío tangible, particularmente a medida que las aplicaciones de inteligencia artificial se mueven desde la prueba de concepto hasta la producción.

La extensión de pipelines de inteligencia artificial de EDB Postgres es un ejemplo de cómo Postgres está desempeñando un papel clave en la configuración de la parte de “gestión de datos” de la historia de la aplicación de inteligencia artificial. Simplificando el procesamiento de datos con pipelines automatizados para recuperar datos de Postgres o almacenamiento de objetos, generando incrustaciones vectoriales como nuevos datos se ingieren, y desencadenando actualizaciones de incrustaciones cuando los datos de origen cambian—lo que significa datos siempre actualizados para la consulta y recuperación sin mantenimiento tedioso.

¿Qué innovaciones o desarrollos podemos esperar de Postgres en el futuro cercano, especialmente a medida que la inteligencia artificial continúa evolucionando y exigiendo más de la infraestructura de datos?

La base de datos vectorial no es de ninguna manera un artículo terminado, se espera un desarrollo y mejora adicionales a medida que la utilización y la dependencia de la tecnología de base de datos vectorial continúan creciendo. La comunidad de PostgreSQL sigue innovando en este espacio, buscando métodos para mejorar la indexación para permitir criterios de búsqueda más complejos junto con el progreso de la capacidad de pgvector en sí.

¿Cómo apoya Postgres, especialmente con las ofertas de EDB, la necesidad de implementaciones de nube híbrida y multicloud, y por qué es importante esta flexibilidad para las empresas impulsadas por la inteligencia artificial?

Un estudio reciente de EDB muestra que el 56% de las empresas ahora implementan cargas de trabajo críticas para la misión en un modelo híbrido, destacando la necesidad de soluciones que admitan tanto la agilidad como la soberanía de los datos. Postgres, con las mejoras de EDB, proporciona la flexibilidad esencial para entornos de nube híbrida y multicloud, permitiendo a las empresas impulsadas por la inteligencia artificial gestionar sus datos con flexibilidad y control.

EDB Postgres AI aporta agilidad en la nube y observabilidad a entornos híbridos con control soberano. Este enfoque permite a las empresas controlar la gestión de los modelos de inteligencia artificial, al mismo tiempo que simplifica las cargas de trabajo transaccionales, analíticas y de inteligencia artificial en entornos de nube híbrida o multicloud. Al permitir la portabilidad de los datos, el control de costo total de propiedad (TCO) granular y una experiencia similar a la de la nube en una variedad de infraestructuras, EDB admite a las empresas impulsadas por la inteligencia artificial en la realización de respuestas más rápidas y ágiles a las demandas de datos complejas.

¿Cómo apoya Postgres la gobernanza de los datos, la privacidad y la seguridad, particularmente en el contexto de la gestión de datos sensibles para los modelos de inteligencia artificial?

A medida que la inteligencia artificial se integra más en los sistemas empresariales, las empresas enfrentan una presión creciente para salvaguardar la integridad de los datos y cumplir con rigurosos estándares de cumplimiento. Este paisaje en evolución pone la soberanía de los datos en el centro—donde la estricta gobernanza, la seguridad y la visibilidad no son solo prioridades, sino requisitos previos. Las empresas necesitan saber y estar seguras de dónde están sus datos y adónde van.

Postgres sobresale como la columna vertebral para entornos de datos listos para la inteligencia artificial, ofreciendo capacidades avanzadas para gestionar datos sensibles en entornos de nube híbrida y multicloud. Su fundamento de código abierto significa que las empresas se benefician de la innovación constante, mientras que las mejoras de EDB garantizan el cumplimiento de la seguridad de nivel empresarial, controles de acceso granulares y observabilidad profunda—clave para la gestión responsable de los datos de inteligencia artificial. Las capacidades de inteligencia artificial soberana de EDB se basan en esta postura, centrándose en llevar la capacidad de inteligencia artificial a los datos, lo que facilita el control sobre dónde se mueven esos datos y de dónde provienen.

¿Qué hace que EDB Postgres sea único en su capacidad para escalar las cargas de trabajo de inteligencia artificial mientras mantiene la alta disponibilidad y el rendimiento, especialmente para aplicaciones críticas para la misión?

EDB Postgres AI ayuda a elevar la infraestructura de datos a un activo tecnológico estratégico al acercar los sistemas analíticos y de inteligencia artificial a los datos operativos y transaccionales de los clientes—todo gestionado a través de Postgres. Proporciona la base de la plataforma de datos para aplicaciones impulsadas por la inteligencia artificial al reducir la complejidad de la infraestructura, optimizar la eficiencia de costo y cumplir con los requisitos empresariales de soberanía de los datos, rendimiento y seguridad.

Una plataforma de datos elegante para operadores modernos, desarrolladores, ingenieros de datos y constructores de aplicaciones de inteligencia artificial que requieren una solución probada en batalla para sus cargas de trabajo críticas para la misión, permitiendo el acceso a capacidades analíticas y de inteligencia artificial mientras se utilizan el sistema de base de datos operativa central de la empresa.

Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar EDB.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.