Connect with us

Shanea Leven, Fundadora y CEO de Empromptu AI – Serie de Entrevistas

Entrevistas

Shanea Leven, Fundadora y CEO de Empromptu AI – Serie de Entrevistas

mm

Shanea Leven, Fundadora y CEO de Empromptu AI, es una veterana líder de productos con una amplia experiencia en la creación de plataformas para desarrolladores y productos impulsados por inteligencia artificial en importantes empresas de tecnología. Antes de lanzar Empromptu en 2025, fundó CodeSee, una plataforma de desarrollo de inteligencia artificial que ayuda a los equipos a visualizar y comprender códigos complejos, que fue adquirida por GitKraken en 2024. Al comienzo de su carrera, ocupó puestos de liderazgo senior en empresas como Docker, Cloudflare, eBay y Google, donde trabajó en iniciativas que van desde las API de pago de Google Assistant hasta programas de educación para desarrolladores utilizados por cientos de miles de aprendices.

Empromptu AI es una plataforma empresarial diseñada para ayudar a las organizaciones a crear y desplegar aplicaciones de inteligencia artificial integradas de manera más sencilla. La plataforma combina el desarrollo de aplicaciones, la integración de datos, la gobernanza, las evaluaciones, la memoria y la orquestación de modelos en un solo entorno, lo que permite a las empresas pasar de la experimentación rápida de inteligencia artificial a sistemas de grado de producción con los controles y la confiabilidad necesarios para su uso empresarial.

Pasaste más de 15 años creando plataformas para desarrolladores en empresas como Google, eBay, Cloudflare y Docker antes de fundar CodeSee, que posteriormente fue adquirida por GitKraken, y ahora diriges Empromptu AI. ¿Cómo te han influido esas experiencias en tu perspectiva sobre por qué tantas herramientas de inteligencia artificial fallan una vez que dejan la etapa de demostración, y qué problema específico te propusiste resolver al fundar Empromptu?

Una de las cosas que aprendes al crear plataformas para desarrolladores es que los problemas más difíciles nunca son los que se presentan en la demostración. La demostración siempre funciona. La verdadera prueba es lo que sucede cuando miles de desarrolladores utilizan el sistema, cuando los datos son desordenados, cuando las integraciones se rompen y cuando los negocios reales dependen de ello.

En Google, Cloudflare, Docker y eBay, pasé años trabajando en plataformas que tenían que operar a escala global. Esos entornos te enseñan algo rápidamente: la confiabilidad, la gobernanza y la observabilidad no son características que se agregan más tarde. Son la arquitectura.

Cuando comencé a crear aplicaciones de inteligencia artificial, los modelos eran terribles y, a medida que comenzaron a mejorar, noté que la industria estaba repitiendo el mismo error que vimos en oleadas anteriores de software. En las herramientas de desarrollo, hay un concepto que parece haber sido olvidado. ¿Cuán rápido puedes llegar a “hola mundo”? Hoy en día, la versión generativa de “hola mundo” es un prototipo de aplicación SaaS completamente funcional. Pero no solo creamos aplicaciones SaaS con código; creamos aplicaciones de inteligencia artificial completas con código. Una inteligencia artificial que crea inteligencia artificial requiere otros sistemas para poner esa inteligencia artificial en producción.

Puedes generar una aplicación o función de inteligencia artificial que funcione rápidamente, lo cual es emocionante y genuinamente útil. Pero los sistemas predominantes todavía carecen de la infraestructura necesaria para entornos de producción. Cosas como pipelines de datos estructurados, marcos de evaluación, controles de gobernanza, monitoreo y gestión de contexto a largo plazo se pasaron por alto, pero los hemos incorporado mientras mantenemos todas las partes increíbles de la codificación con sensaciones.

Cuando mi cofundador y yo fundamos Empromptu, el problema que queríamos resolver era simple: ¿cómo hacemos que las aplicaciones de inteligencia artificial estén listas para la producción desde el principio?

En lugar de tratar la gobernanza, la preparación de datos, la evaluación y la optimización como herramientas separadas o procesos posteriores, las construimos directamente en la plataforma. La idea es que los equipos deben poder crear aplicaciones de inteligencia artificial rápidamente, pero con la misma confiabilidad, calidad y control que esperan de los sistemas de software empresariales.

Has sido muy crítica con la brecha entre las impresionantes demostraciones de inteligencia artificial y los sistemas listos para la producción. Desde tu perspectiva, ¿cuáles son los errores arquitectónicos más comunes que cometen los equipos al intentar convertir un prototipo de inteligencia artificial en un producto confiable utilizado por clientes reales?

El error más común que cometen los equipos es asumir que el modelo es el producto.

En los prototipos iniciales, el modelo realiza la mayor parte del trabajo visible. Le das una orden, produce una respuesta y, si la respuesta parece buena, el sistema parece funcionar. Eso crea la ilusión de que mejorar el modelo es el desafío principal.

Pero en los sistemas de producción, el modelo es solo un componente en una arquitectura mucho más grande.

El primer error es tratar los datos como un pensamiento posterior. En los prototipos, los equipos a menudo prueban con conjuntos de datos pequeños y limpios. Una vez que el sistema se conecta a datos operativos reales, las cosas cambian rápidamente. Los datos llegan incompletos, inconsistentes, duplicados o en formatos inesperados. Sin un pipeline de datos estructurado para normalizar y validar las entradas, el sistema se vuelve poco confiable, independientemente de lo bueno que sea el modelo.

El segundo error es la ausencia de marcos de evaluación. Muchos equipos lanzan características de inteligencia artificial sin definir qué significa “bueno” en realidad. Pueden verificar manualmente las salidas durante el desarrollo, pero no construyen pipelines de evaluación automatizados que midan continuamente la precisión, el desplazamiento y los casos límite una vez que el sistema esté en vivo. Sin esas barreras, los fallos a menudo los descubren los clientes en lugar de los ingenieros.

Un tercer problema es la falta de mecanismos de gobernanza y control. Los sistemas de inteligencia artificial son probabilísticos, lo que significa que pueden comportarse de manera diferente bajo condiciones ligeramente diferentes. En entornos regulados o de alto riesgo, esa imprevisibilidad debe ser limitada con políticas determinísticas, flujos de trabajo de aprobación y registros de auditoría que capturen cómo se tomaron las decisiones.

En realidad, se trata de que los sistemas de inteligencia artificial en producción no son solo modelos. Son sistemas operativos.

Las empresas que tienen éxito con la inteligencia artificial hoy en día son las que tratan los pipelines de datos, la evaluación, la gobernanza y el monitoreo como infraestructura central, no como complementos opcionales.

Muchas plataformas de codificación de inteligencia artificial prometen que cualquier persona puede crear una aplicación utilizando instrucciones simples. ¿Por qué estas herramientas a menudo funcionan bien para demostraciones pero luchan una vez que las empresas intentan implementarlas en entornos de producción reales?

Muchas de estas plataformas funcionan bien para demostraciones porque están optimizadas para el momento de la creación, no para el ciclo de vida de un sistema real.

Pero hay una diferencia fundamental entre utilizar inteligencia artificial para generar una página de aterrizaje y utilizar inteligencia artificial para crear una aplicación de inteligencia artificial.

Una página de aterrizaje es principalmente un software estático. Una vez que se representa correctamente, el trabajo está casi terminado. El sistema no tiene que tomar decisiones probabilísticas, ingerir datos que cambian constantemente o adaptarse a un comportamiento de usuario impredecible.

Las aplicaciones de inteligencia artificial son completamente diferentes. Son sistemas dinámicos que dependen de pipelines de datos, comportamiento de modelos, marcos de evaluación y monitoreo continuo. La aplicación debe gestionar el contexto, detectar cuándo las salidas se desvían, manejar casos límite y operar de manera segura cuando el modelo encuentra situaciones que no ha visto antes.

La mayoría de las herramientas de codificación con instrucciones no abordan esas capas porque están diseñadas para que algo funcione rápidamente. Generan código que produce un resultado visible, lo cual es perfecto para un entorno de demostración. Pero los sistemas de producción requieren un conjunto mucho más amplio de capacidades: manejo de datos estructurados, controles de gobernanza, pipelines de evaluación, observabilidad y mecanismos para actualizar el comportamiento de manera segura con el tiempo.

Así que, cuando las empresas intentan implementar estos sistemas en entornos reales, la brecha se vuelve obvia. El prototipo funcionó porque el entorno estaba controlado. La producción es desordenada.

Empromptu se centra en transformar el software existente en sistemas nativos de inteligencia artificial en lugar de obligar a las empresas a reconstruir todo desde cero. ¿Qué implica esa transformación a nivel de infraestructura y de producto?

A nivel de producto, cada aplicación es completamente autónoma y contenerizada. Creamos todo lo que necesitas, desde interfaces de usuario, pasando por bases de datos, modelos, evaluaciones, hasta reglas y todo es super flexible dependiendo de las necesidades de la empresa.

Tenemos varias opciones para aplicaciones de inteligencia artificial:

“Sin cabeza” para que, si un cliente ya tiene una interfaz de usuario, podemos conectarla a nuestro sistema y enviar los datos de regreso.

Completamente contenerizada para que pueda ser desplegada en nuestra infraestructura o dentro de la infraestructura del cliente, por lo que es de código abierto por defecto.

O podemos generarlas y desplegarlas directamente en la nube para la opción más conveniente.

Cualquier código que tengan, podemos importarlo directamente en nuestro sistema y “agentificarlo” si no está “agentificado” ya. Por ejemplo, vemos esto con muchos clientes que han intentado construir sus aplicaciones en plataformas populares como Lovable, Replit, Bolt o Base44. A menudo, no funcionan. Pero los clientes ya han invertido mucho tiempo y energía en esta aplicación, así que la ingerimos, la reescribimos, hacemos que toda la inteligencia artificial funcione.

Y podemos hacer esto porque tenemos varias tecnologías personalizadas y propietarias, como:

  • Motor de contexto adaptativo para gestionar el contexto
  • Memoria infinita para ingerir aplicaciones de código que se ejecutan durante mucho tiempo
  • Modelos de datos personalizados y pipelines de datos “oro” para asegurarnos de que podamos manejar cualquier limpieza de datos y etiquetado sintético que se requiera

Tu plataforma enfatiza el contexto, la evaluación, la gobernanza y los datos estructurados como componentes centrales de los sistemas de inteligencia artificial. ¿Por qué se pasan por alto estos elementos con tanta frecuencia cuando los equipos se apresuran a agregar características de inteligencia artificial a sus productos?

Porque son difíciles de hacer. Mi cofundador, el Dr. Sean Robinson, dirige nuestro laboratorio de investigación y es un astrofísico computacional que ha inventado varias tecnologías inspiradas en mis ideas locas, pero también en las necesidades de nuestros clientes y hacia dónde se dirige el mercado. Nuestra experiencia combinada en la creación de muchas aplicaciones “agentivas”, poner satélites en el espacio y construir en las mayores empresas de tecnología del mundo nos da conocimientos que nos ayudan a resolver problemas complicados mejor que otras personas.

Trabajas con muchos fundadores que nunca han escrito código antes. ¿Cuáles son los mayores malentendidos que tienen los fundadores no técnicos cuando intentan crear aplicaciones de inteligencia artificial por primera vez?

Creo que hay dos malentendidos grandes:

El primero es que la inteligencia artificial es mágica. La inteligencia artificial no es mágica. Es solo buena ingeniería. Y eventualmente, llegas a un límite en lo que puedes hacer en estas plataformas sin un ingeniero real.

El segundo es que tienen grandes habilidades de gestión de productos técnicos. Tengo un background en gestión de productos técnicos y la habilidad de traducir una visión, a veces una visión muy grande, en fragmentos de entrega con la especificación técnica correcta para articular exactamente lo que quieres. Esa es una habilidad muy difícil que requiere tiempo.

Por ejemplo, digamos que estás construyendo una aplicación que sube un PDF y lo guarda para que puedas regresar y verlo más tarde. Eso es un concepto llamado persistencia. Ese PDF se codifica en código y se guarda en una base de datos.

Pero si no sabes que eso se llama persistencia, ¿cómo vas a poder escribir? Asegúrate de que estos datos persistan. La elección de palabras técnicas es como hablar un idioma diferente. Hay una diferencia entre escribir en lenguaje natural y escribir en lenguaje técnico.

Muchas startups asumen que la solución para crear productos de inteligencia artificial es simplemente contratar a más ingenieros. ¿Por qué crees que este enfoque a menudo falla, y qué deberían estar pensando los fundadores al crear productos impulsados por inteligencia artificial?

Contratar a más ingenieros es sometimes la respuesta correcta. Si estás creando un producto técnicamente profundo o trabajando en la frontera de la investigación de modelos, absolutamente necesitas equipos de ingeniería sólidos. No hay sustituto para buenos ingenieros cuando se trata de resolver problemas difíciles.

Pero el error que cometen muchas startups es asumir que más ingenieros automáticamente resuelve el desafío de crear un producto de inteligencia artificial.

En realidad, los problemas más difíciles en los productos de inteligencia artificial a menudo no son problemas puramente de ingeniería. Son problemas de sistemas, al igual que cualquier otro problema de ingeniería. Los ingenieros están específicamente enseñados a pensar en sistemas. Pero el desarrollo generativo es diferente al desarrollo determinístico. Muchos de nosotros hicimos esta transición cuando pasamos de la programación orientada a objetos a la programación funcional. ¿Son ambas programación? Sí, absolutamente, pero ¿son diferentes? ¿Son una forma diferente de pensar? Sí, por supuesto.

Las aplicaciones de inteligencia artificial se encuentran en la intersección de los datos, el diseño de productos, los flujos de trabajo operativos y el comportamiento de los modelos. Puedes contratar a un equipo increíble de ingenieros, pero si los pipelines de datos son poco confiables, los criterios de evaluación son poco claros o el sistema carece de gobernanza y monitoreo, el producto seguirá luchando una vez que llegue a los usuarios reales.

Otro problema es que muchos equipos saltan directamente a la construcción antes de haber definido cómo se comportará el sistema de inteligencia artificial en producción. Preguntas como cómo se evaluará el sistema, cómo se manejarán los casos límite, cómo se registrarán las decisiones y cómo se actualizarán los modelos con el tiempo a menudo llegan mucho más tarde. Para entonces, la arquitectura ya es difícil de cambiar.

Lo que los fundadores realmente deberían estar pensando es el modelo operativo de su sistema de inteligencia artificial.

¿Quién es el dueño del pipeline de datos?

¿Cómo se mide el rendimiento del modelo continuamente, no solo durante el desarrollo?

¿Qué sucede cuando el sistema encuentra una situación que no ha visto antes?

¿Cómo actualizas el comportamiento de manera segura sin romper los flujos de trabajo descendentes?

A veces, resolver esos problemas significa contratar a más ingenieros. Pero también puede significar elegir la infraestructura correcta, definir restricciones de productos sólidas y construir sistemas que permitan a equipos pequeños operar de manera confiable a escala.

Las empresas que tienen éxito con la inteligencia artificial hoy en día no son necesariamente las que tienen los equipos de ingeniería más grandes. Son las que tratan la inteligencia artificial como un sistema en ejecución que necesita disciplina de datos, evaluación, gobernanza y mejora continua incorporadas desde el principio.

Has argumentado que algunos de los modelos de negocio actuales en las herramientas de desarrollo de inteligencia artificial no se alinean con la creación de productos duraderos. ¿Qué incentivos en el ecosistema actual de herramientas de inteligencia artificial crees que están llevando a las empresas en la dirección equivocada?

Una de las mayores discrepancias de incentivos en este momento es que muchas herramientas de desarrollo de inteligencia artificial están optimizadas para métricas de crecimiento en lugar de durabilidad de productos.

Muchas empresas en este espacio son recompensadas por lo rápido que los usuarios pueden crear algo impresionante. Si una herramienta puede generar una aplicación o función que funcione en pocos minutos, eso impulsa las inscripciones, el intercambio en las redes sociales y el entusiasmo de los inversores. Desde el punto de vista de la adopción de productos, eso tiene sentido.

Pero esos incentivos a menudo se detienen en el momento de la creación.

El trabajo más difícil en el software de inteligencia artificial sucede después de ese punto. Ese es el momento en que se construye la confianza. Cuando puedes confiar en la calidad. Eso el usuario quiere regresar una y otra vez sin la frustración de la inteligencia artificial por salidas malas. Necesita dar buenas respuestas incluso ante la ignorancia o la maldad humana.

Otro problema es que muchas herramientas están optimizadas para la generación de código en lugar de diseño de sistemas. Generar código rápidamente es útil, pero construir un producto de inteligencia artificial implica más que producir código. Requiere definir cómo el sistema gestiona el contexto, cómo se evalúan las decisiones, cómo se manejan los fallos y cómo se actualiza el comportamiento de manera segura con el tiempo.

Las empresas que alinean sus incentivos en torno a ayudar a los clientes a ejecutar sistemas de inteligencia artificial de manera confiable, y no solo a construirlos rápidamente, son las que crearán valor duradero en este ecosistema.

Algunos de tus clientes incluyen empresarios que construyen productos muy específicos, como herramientas de salud especializadas o empresas enfocadas en la sostenibilidad, a menudo sin equipos de ingeniería tradicionales. ¿Qué patrones has visto entre los fundadores que con éxito convierten esas ideas en productos de inteligencia artificial que funcionan?

Uno de los patrones más interesantes que vemos es que los fundadores que tienen éxito no son necesariamente los más técnicos. Son aquellos que entienden el problema que están resolviendo extremadamente bien.

Muchos de los empresarios que utilizan Empromptu son expertos en dominios. Pueden provenir de la salud, las finanzas, la sostenibilidad o otra industria especializada. Lo que aportan es un conocimiento profundo de los flujos de trabajo, las regulaciones y las decisiones que existen en ese entorno. Ese contexto es increíblemente valioso al diseñar un producto de inteligencia artificial porque define qué es lo que el sistema debe hacer en realidad.

Los fundadores que tienen éxito tienden a abordar la inteligencia artificial menos como un experimento tecnológico y más como un sistema de productos. Comienzan haciendo preguntas muy concretas. ¿Qué decisiones debe ayudar a los usuarios a tomar la inteligencia artificial? ¿Qué fuentes de datos necesita acceder? ¿Qué se parece a una respuesta correcta en este dominio? ¿Qué guardias necesitan existir para que el sistema se comporte de manera responsable?

Otro patrón es que piensan cuidadosamente en la estructura. Los equipos exitosos rápidamente se dan cuenta de que las salidas de la inteligencia artificial son solo tan buenas como el contexto y los datos que las alimentan. Invierten tiempo al principio en definir pipelines de datos, organizando fuentes de conocimiento y creando criterios de evaluación claros para qué significa “bueno” en este dominio.

También vemos a fundadores exitosos que abrazan la colaboración humano-inteligencia artificial en lugar de intentar automatizar todo de inmediato. Diseñan flujos de trabajo donde la inteligencia artificial maneja el análisis repetitivo o la síntesis de datos, mientras que los humanos siguen siendo responsables del juicio y las decisiones finales. Ese equilibrio hace que los sistemas sean mucho más confiables, especialmente en campos como la salud o las finanzas.

En muchos sentidos, el mayor cambio es de mentalidad. Los fundadores que tienen éxito no piensan en la inteligencia artificial como una característica que están agregando. Piensan en ella como una nueva capa operativa para cómo funciona su producto.

A medida que los sistemas de inteligencia artificial se integran más en las operaciones comerciales básicas, ¿qué capacidades definirán la próxima generación de plataformas de aplicaciones de inteligencia artificial?

Sé que esto es una locura y puedo estar diciendo algo sacrílego, pero la gente podrá “vibe-codificar” sus propios modelos personalizados. Algo que nuestro laboratorio de investigación está llamando “modelos nano expertos” ayudará a controlar los costos.

Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar Empromptu AI.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.