Contáctenos

Manuel Romero, cofundador y director científico de Maisa – Serie de entrevistas

Entrevistas

Manuel Romero, cofundador y director científico de Maisa – Serie de entrevistas

mm

manuel romeroRomero, cofundador y director científico de Maisa, es un investigador e ingeniero de IA centrado en el desarrollo de sistemas de inteligencia artificial fiables y de nivel empresarial. Fundó Maisa en 2024 para crear una IA responsable capaz de ejecutar procesos de negocio complejos con transparencia y control. Antes de Maisa, Romero ocupó puestos de alta responsabilidad en ingeniería de IA y aprendizaje automático en empresas como Clibrain y Narrativa, donde se especializó en procesamiento del lenguaje natural y sistemas de IA a gran escala. Anteriormente, trabajó como ingeniero de software full-stack y especialista en DevOps antes de dedicarse a la investigación y el desarrollo avanzados de IA, convirtiéndose en un colaborador activo del ecosistema de IA de código abierto.

Maisa AI Desarrolla “trabajadores digitales” autónomos, agentes de IA diseñados para automatizar flujos de trabajo empresariales complejos, manteniendo la trazabilidad, la gobernanza y la fiabilidad. La plataforma permite a las organizaciones crear e implementar agentes de IA mediante lenguaje natural, posibilitando la automatización en sistemas internos y fuentes de datos sin necesidad de una programación extensa. Al centrarse en el razonamiento verificable y la ejecución estructurada, Maisa busca superar las limitaciones comunes asociadas a los sistemas de IA generativa y ayudar a las empresas a implementar de forma segura IA autónoma a gran escala.

A menudo te has centrado en comprender el "por qué" más profundo de los sistemas de IA. Desde un punto de vista técnico, ¿qué te impulsó a cofundar Maisa en 2024 y qué deficiencia en la arquitectura de IA empresarial creías que no se estaba abordando?

La motivación para fundar Maisa surgió de la constatación de que la mayoría de las plataformas de IA empresariales se construían en torno a modelos, no a sistemas.

Durante el auge de la IA generativa, muchas empresas se centraron en integrar grandes modelos de lenguaje en los flujos de trabajo existentes. Sin embargo, estos sistemas solían ser frágiles, opacos y difíciles de operar a gran escala. Carecían de:

  • Ejecución determinista donde importaba.
  • fuerte observabilidad, trazabilidad
  • reproducibilidad

La brecha que observamos fue la ausencia de una verdadera infraestructura de IA para las empresas. Las compañías estaban desarrollando aplicaciones en torno a las API de LLM, pero carecían de algo equivalente a una arquitectura informática para el trabajo del conocimiento.

Maisa se creó para subsanar esa deficiencia mediante el diseño de una arquitectura centrada en la Unidad de Procesamiento del Conocimiento (KPU, por sus siglas en inglés), un sistema que permite que la IA funcione de forma fiable dentro de los flujos de trabajo empresariales reales.

Antes de fundar Maisa, trabajaste en el campo del procesamiento avanzado del lenguaje natural y los sistemas generativos. ¿Cómo influyeron esas experiencias en las decisiones arquitectónicas de la plataforma?

Mi experiencia trabajando en PLN y GNL, particularmente en el entrenamiento y preentrenamiento de modelos de lenguaje y, posteriormente, de grandes modelos de lenguaje (cientos de ellos), me dejó algo muy claro al intentar construir sistemas reales sobre ellos. La arquitectura Transformer es extremadamente potente, pero presenta al menos tres limitaciones fundamentales que deben abordarse para utilizarla de forma fiable en producción.

La primera son las alucinaciones. Estos modelos generan texto de forma probabilística y pueden producir resultados que suenan correctos, pero que no se basan en información verificada.

La segunda son las limitaciones de contexto. Incluso con ventanas de contexto más amplias, los modelos operan dentro de un espacio de tokens limitado, lo que dificulta el razonamiento sobre grandes o complejos conjuntos de conocimientos.

El tercer aspecto es la información actualizada. Los modelos preentrenados representan una instantánea del conocimiento en el momento del entrenamiento, mientras que los entornos empresariales requieren sistemas que puedan razonar sobre información en constante cambio.

Reconocer estas limitaciones influyó en muchas de las decisiones arquitectónicas de Maisa. En lugar de basarnos únicamente en el modelo, nos centramos en construir un sistema que proporcionara acceso estructurado al conocimiento, mecanismos de validación y una ejecución controlada para que la IA pudiera operar de forma fiable en flujos de trabajo empresariales reales.

Muchas empresas experimentan con IA generativa, pero les cuesta ir más allá de los proyectos piloto. Desde la perspectiva del diseño de sistemas, ¿cuál es la razón principal por la que la escalabilidad falla en tantas organizaciones?

Muchas empresas tienen dificultades para ir más allá de los proyectos piloto de IA generativa, ya que la mayoría de las implementaciones se conciben como experimentos en lugar de sistemas robustos. Los prototipos iniciales suelen basarse en una ingeniería ágil, una orquestación sencilla y procesos de recuperación simples, que si bien pueden demostrar su valor, no ofrecen la fiabilidad, la observabilidad ni el control necesarios para entornos de producción. A medida que las organizaciones intentan escalar estos sistemas, se encuentran con problemas como resultados inconsistentes, falta de trazabilidad, dificultades de integración con los flujos de trabajo empresariales y una gobernanza limitada sobre el comportamiento de la IA. En esencia, el problema radica en que los grandes modelos de lenguaje son generadores probabilísticos, mientras que los procesos empresariales requieren un comportamiento predecible y auditable. Sin una arquitectura que estructure el razonamiento, la validación, la ejecución y la monitorización, los sistemas de IA generativa siguen siendo difíciles de escalar más allá de casos de uso aislados.

Los trabajadores digitales de Maisa están diseñados para ser auditables y estructurados, en lugar de ser puramente probabilísticos. ¿Qué significa esto en términos prácticos para las empresas que evalúan la IA para su uso en producción?

Cuando decimos que los Trabajadores Digitales de Maisa son auditables y estructurados, en lugar de puramente probabilísticos, nos referimos a que la IA opera dentro de un sistema controlado donde sus acciones y razonamientos pueden rastrearse y gobernarse. En lugar de permitir que un modelo genere libremente resultados y decisiones, el sistema estructura la forma en que la IA interactúa con los datos, las herramientas y los flujos de trabajo. Cada paso del proceso puede registrarse, inspeccionarse y validarse, y las acciones se ejecutan a través de interfaces definidas en lugar de directamente desde la salida del modelo. Para las empresas, esto significa que los sistemas de IA pueden supervisarse, auditarse e integrarse en procesos críticos con mayor confianza. Transforma la IA de un asistente de caja negra a un sistema cuyo comportamiento puede comprenderse, controlarse y en el que se puede confiar en entornos de producción.

Como arquitecto de la Unidad de Procesamiento del Conocimiento, ¿en qué se diferencia de una capa de orquestación o un motor de flujo de trabajo típico, construido en torno a grandes modelos de lenguaje?

La Unidad de Procesamiento del Conocimiento (UPC) se diferencia de las capas de orquestación típicas porque está diseñada para gestionar el ciclo de vida completo del razonamiento basado en IA, en lugar de simplemente coordinar las indicaciones y las llamadas a modelos. La mayoría de los marcos de orquestación actúan como gestores de flujos de trabajo que encadenan pasos como la recuperación, la generación de indicaciones y la ejecución de herramientas. La UPC opera a un nivel arquitectónico más profundo, estructurando cómo se accede al conocimiento, cómo se realiza el razonamiento y cómo se ejecutan las acciones dentro del sistema. Considera el procesamiento del conocimiento como una capa computacional central, integrando memoria, validación y ejecución controlada para que la IA pueda operar de forma fiable dentro de flujos de trabajo empresariales complejos, en lugar de limitarse a generar respuestas.

En los sectores regulados, la tolerancia al riesgo es baja. ¿Qué decisiones de diseño específicas tomó para garantizar que los resultados de la IA sigan siendo fiables y no propaguen errores a través de flujos de trabajo complejos?

En industrias reguladas, la fiabilidad y el control son esenciales, por lo que diseñamos el sistema con diversas medidas de seguridad para garantizar la fiabilidad de los resultados de la IA. Un principio clave es la ejecución estructurada, donde la IA no puede activar directamente acciones críticas sin pasar por interfaces controladas. También incorporamos capas de validación que comprueban los resultados del modelo con respecto a esquemas, reglas o mecanismos secundarios antes de su aceptación. Además, el sistema mantiene una observabilidad completa, registrando los pasos de razonamiento, las interacciones con las herramientas y las decisiones para que puedan ser rastreadas y auditadas. En conjunto, estas decisiones de diseño ayudan a prevenir la propagación de errores a través de los flujos de trabajo y permiten a las organizaciones operar sistemas de IA con el nivel de fiabilidad y gobernanza requerido en entornos regulados.

¿Cuáles son los casos de uso iniciales más convincentes en los que ha visto a los trabajadores digitales pasar de la asistencia guiada a la ejecución totalmente operativa impulsada por IA?

Algunos de los casos de uso iniciales más prometedores se observan en flujos de trabajo intensivos en conocimiento, donde los procesos están bien definidos, pero aún requieren un análisis y una toma de decisiones significativos. En áreas como la revisión de cumplimiento, las operaciones de soporte técnico y la gestión interna del conocimiento, los trabajadores digitales pueden ir más allá de simplemente asistir a los humanos y comenzar a ejecutar tareas estructuradas de principio a fin. Pueden recuperar y analizar grandes volúmenes de información interna, aplicar procedimientos definidos, interactuar con los sistemas empresariales mediante herramientas controladas y generar resultados que se integran directamente en los flujos de trabajo operativos. El cambio clave se produce cuando la IA no solo genera sugerencias, sino que también es capaz de llevar a cabo de forma fiable acciones definidas dentro de un sistema controlado, lo que permite a las organizaciones automatizar partes del trabajo complejo basado en el conocimiento, en lugar de simplemente complementarlo.

A medida que se intensifica el escrutinio regulatorio en torno a la IA a nivel mundial, ¿cómo prevé que evolucione la infraestructura central de IA para cumplir con los requisitos de cumplimiento sin limitar la innovación?

A medida que aumenta el escrutinio regulatorio en torno a la IA, creo que veremos un cambio con respecto a las arquitecturas que simplemente llaman a las API de los proveedores de modelos y confían ciegamente en los resultados. Las empresas y los reguladores exigirán cada vez más sistemas donde el comportamiento de la IA sea observable, auditable y controlado. Aquí es donde arquitecturas como la Unidad de Procesamiento del Conocimiento (KPU) cobran importancia. Este tipo de arquitectura permite a las organizaciones aplicar controles, rastrear decisiones y garantizar que los resultados de la IA sean fiables antes de que influyan en los procesos reales. Con el tiempo, preveo que este tipo de sistemas se convertirán en la base estándar para una infraestructura de IA confiable.

Has hablado de ética y responsabilidad junto con tu trabajo técnico. ¿Cómo influyen esas perspectivas en tu enfoque para construir sistemas de IA transparentes?

Para mí, la ética y la responsabilidad se traducen directamente en decisiones de diseño de sistemas. Si los sistemas de IA van a participar en flujos de trabajo operativos reales, no pueden funcionar como cajas negras opacas cuyo comportamiento no se pueda inspeccionar ni comprender. Esta perspectiva ha influido notablemente en mi enfoque para la creación de sistemas de IA. La transparencia, la trazabilidad y la supervisión humana deben integrarse en la arquitectura desde el principio. Esto implica garantizar que los pasos de razonamiento se puedan observar, las decisiones se puedan auditar y las acciones se ejecuten mediante mecanismos controlados. Cuando estos principios se incorporan a nivel de infraestructura, los sistemas de IA no solo se vuelven más fiables, sino que también facilitan a las organizaciones una gestión responsable.

De cara al futuro, ¿cree que la infraestructura de IA basada en agentes se convertirá en algo tan fundamental como lo fue la infraestructura en la nube en la década anterior? ¿Qué se necesita a nivel técnico para que ese cambio se materialice?

Creo firmemente que la infraestructura de IA con agentes tiene el potencial de convertirse en un pilar fundamental, al igual que la infraestructura en la nube lo ha sido en la última década. A medida que las organizaciones buscan automatizar tareas de conocimiento cada vez más complejas, necesitarán sistemas que puedan coordinar de forma fiable el razonamiento, la memoria y la ejecución en múltiples tareas y fuentes de datos. Sin embargo, para que este cambio se materialice, la arquitectura subyacente debe evolucionar más allá de simples integraciones de modelos. Necesitamos una infraestructura que proporcione razonamiento estructurado, acceso fiable al conocimiento empresarial, una sólida observabilidad y una ejecución controlada de las acciones. Cuando estas capacidades se integren en el sistema central, la IA con agentes podrá evolucionar de herramientas experimentales a una infraestructura fiable en la que las organizaciones confíen para ejecutar operaciones críticas.

Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar Maisa AI.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Es un emprendedor en serie y cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablar maravillas sobre el potencial de las tecnologías disruptivas y la IA general.

Como titular de futurista, se dedica a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Valores.io, una plataforma centrada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y transformando sectores enteros.