Entre em contato

Manuel Romero, cofundador e diretor científico da Maisa – Série de entrevistas

Entrevistas

Manuel Romero, cofundador e diretor científico da Maisa – Série de entrevistas

mm

Manuel Romero, cofundador e diretor científico da Maisa, é um pesquisador e engenheiro de IA focado no desenvolvimento de sistemas de inteligência artificial confiáveis ​​e de nível empresarial. Ele cofundou a Maisa em 2024 para construir IA responsável, capaz de executar processos de negócios complexos com transparência e controle. Antes da Maisa, Romero ocupou cargos de engenharia de IA e aprendizado de máquina em empresas como Clibrain e Narrativa, onde se especializou em processamento de linguagem natural e sistemas de IA de grande escala. No início de sua carreira, trabalhou como engenheiro de software full-stack e especialista em DevOps antes de migrar para a pesquisa e desenvolvimento de IA avançada, tornando-se um colaborador ativo do ecossistema de IA de código aberto.

Maisa AI A Maisa desenvolve "trabalhadores digitais" autônomos, agentes de IA projetados para automatizar fluxos de trabalho empresariais complexos, mantendo rastreabilidade, governança e confiabilidade. A plataforma permite que as organizações criem e implementem agentes de IA usando linguagem natural, possibilitando a automação em sistemas internos e fontes de dados sem a necessidade de programação extensa. Ao focar em raciocínio verificável e execução estruturada, a Maisa busca superar as limitações comuns associadas a sistemas de IA generativa e ajudar as empresas a implantar IA autônoma em larga escala com segurança.

Você costuma se concentrar em entender o "porquê" mais profundo por trás dos sistemas de IA. Do ponto de vista técnico, o que o motivou a cofundar a Maisa em 2024 e qual lacuna na arquitetura de IA empresarial você acreditava que não estava sendo abordada?

A motivação por trás da fundação da Maisa surgiu da constatação de que a maioria das plataformas de IA corporativas eram construídas em torno de modelos, e não de sistemas.

Durante o boom da IA ​​generativa, muitas empresas se concentraram em integrar grandes modelos de linguagem em fluxos de trabalho existentes. No entanto, esses sistemas eram frequentemente frágeis, opacos e difíceis de operar em grande escala. Eles careciam de:

  • Execução determinística onde era necessário.
  • forte observabilidade, rastreabilidade
  • reprodutibilidade

A lacuna que identificamos foi a ausência de uma verdadeira infraestrutura de IA para empresas. As empresas estavam criando aplicativos em torno de APIs de aprendizado de máquina, mas não possuíam algo equivalente a uma arquitetura de computador para trabalho intelectual.

A Maisa foi criada para preencher essa lacuna, projetando uma arquitetura centrada na Unidade de Processamento de Conhecimento (KPU), um sistema que permite que a IA opere de forma confiável em fluxos de trabalho empresariais reais.

Antes de fundar a Maisa, você trabalhou com processamento avançado de linguagem natural e sistemas generativos. Como essas experiências influenciaram as escolhas arquitetônicas da plataforma?

Minha experiência trabalhando com PNL e NLG, particularmente com o treinamento e pré-treinamento de modelos de linguagem e, posteriormente, com grandes modelos de linguagem (centenas deles), deixou algo muito claro ao tentar construir sistemas reais com base neles. A arquitetura Transformer é extremamente poderosa, mas apresenta pelo menos três limitações fundamentais que precisam ser abordadas para que possa ser usada de forma confiável em produção.

A primeira são as alucinações. Esses modelos geram texto probabilisticamente e podem produzir resultados que soam corretos, mas não são baseados em informações verificadas.

A segunda limitação reside no contexto. Mesmo com janelas de contexto maiores, os modelos operam dentro de um espaço de tokens limitado, o que dificulta o raciocínio sobre grandes ou complexos conjuntos de conhecimento.

O terceiro ponto é a informação atualizada. Os modelos pré-treinados representam um instantâneo do conhecimento no momento do treinamento, enquanto os ambientes empresariais exigem sistemas que possam raciocinar sobre informações em constante mudança.

O reconhecimento dessas limitações moldou muitas das decisões arquitetônicas por trás do Maisa. Em vez de nos basearmos apenas no modelo, concentramo-nos em construir um sistema que forneça acesso estruturado ao conhecimento, mecanismos de validação e execução controlada, para que a IA possa operar de forma confiável em fluxos de trabalho empresariais reais.

Muitas empresas experimentam IA generativa, mas têm dificuldades em ir além dos projetos-piloto. Do ponto de vista do design de sistemas, qual é o principal motivo pelo qual a escalabilidade falha em tantas organizações?

Muitas empresas têm dificuldade em ir além dos projetos-piloto de IA generativa porque a maioria das implementações é construída como experimentos, e não como sistemas robustos. Os primeiros protótipos geralmente dependem de engenharia rápida, orquestração leve e pipelines de recuperação simples, que podem demonstrar valor, mas não fornecem a confiabilidade, a observabilidade ou o controle necessários para ambientes de produção. À medida que as organizações tentam escalar esses sistemas, encontram problemas como resultados inconsistentes, falta de rastreabilidade, dificuldade de integração com fluxos de trabalho corporativos e governança limitada sobre o comportamento da IA. No fundo, o problema é que grandes modelos de linguagem são geradores probabilísticos, enquanto os processos corporativos exigem um comportamento previsível e auditável. Sem uma arquitetura que adicione estrutura em torno do raciocínio, da validação, da execução e do monitoramento, os sistemas de IA generativa permanecem difíceis de escalar além de casos de uso isolados.

Os Trabalhadores Digitais da Maisa são projetados para serem auditáveis ​​e estruturados, em vez de puramente probabilísticos. O que isso significa na prática para empresas que avaliam a IA para uso em produção?

Quando dizemos que os Trabalhadores Digitais da Maisa são auditáveis ​​e estruturados, em vez de puramente probabilísticos, queremos dizer que a IA opera dentro de um sistema controlado, onde suas ações e raciocínio podem ser rastreados e gerenciados. Em vez de permitir que um modelo gere livremente resultados e decisões, o sistema estrutura a forma como a IA interage com dados, ferramentas e fluxos de trabalho. Cada etapa do processo pode ser registrada, inspecionada e validada, e as ações são executadas por meio de interfaces definidas, em vez de diretamente a partir da saída do modelo. Para as empresas, isso significa que os sistemas de IA podem ser monitorados, auditados e integrados a processos críticos com maior confiança. Isso transforma a IA de uma assistente de caixa-preta em um sistema cujo comportamento pode ser compreendido, controlado e confiável em ambientes de produção.

Como arquiteto da Unidade de Processamento de Conhecimento, em que ela difere de uma camada de orquestração ou mecanismo de fluxo de trabalho típico construído em torno de grandes modelos de linguagem?

A Unidade de Processamento de Conhecimento (KPU, na sigla em inglês) difere das camadas de orquestração típicas porque foi projetada para gerenciar todo o ciclo de vida do raciocínio orientado por IA, em vez de simplesmente coordenar instruções e chamadas de modelos. A maioria das estruturas de orquestração atua como gerenciadores de fluxo de trabalho que encadeiam etapas como recuperação, solicitação e execução de ferramentas. A KPU opera em um nível arquitetônico mais profundo, estruturando como o conhecimento é acessado, como o raciocínio é realizado e como as ações são executadas dentro do sistema. Ela trata o processamento de conhecimento como uma camada computacional central, integrando memória, validação e execução controlada para que a IA possa operar de forma confiável em fluxos de trabalho empresariais complexos, em vez de apenas gerar respostas.

Em setores regulamentados, a tolerância ao risco é baixa. Quais decisões de projeto específicas você tomou para garantir que os resultados da IA ​​permaneçam confiáveis ​​e não propaguem erros em fluxos de trabalho complexos?

Em setores regulamentados, confiabilidade e controle são essenciais. Por isso, projetamos o sistema com diversas salvaguardas para garantir a confiabilidade dos resultados da IA. Um princípio fundamental é a execução estruturada, na qual a IA não pode acionar ações críticas diretamente sem passar por interfaces controladas. Também incorporamos camadas de validação que verificam os resultados do modelo em relação a esquemas, regras ou mecanismos secundários antes de serem aceitos. Além disso, o sistema mantém total observabilidade, registrando as etapas de raciocínio, as interações com as ferramentas e as decisões, de forma que possam ser rastreadas e auditadas. Juntas, essas escolhas de projeto ajudam a evitar a propagação de erros pelos fluxos de trabalho e permitem que as organizações operem sistemas de IA com o nível de confiabilidade e governança exigido em ambientes regulamentados.

Quais são os casos de uso iniciais mais convincentes em que você viu os Trabalhadores Digitais passarem de assistência guiada para execução totalmente operacional orientada por IA?

Alguns dos casos de uso iniciais mais convincentes surgem em fluxos de trabalho intensivos em conhecimento, onde os processos são bem definidos, mas ainda exigem análises e tomadas de decisão significativas. Em áreas como revisão de conformidade, operações de suporte técnico e gestão interna do conhecimento, os Trabalhadores Digitais podem ir além da simples assistência a humanos e começar a executar tarefas estruturadas de ponta a ponta. Eles podem recuperar e analisar grandes volumes de informações internas, aplicar procedimentos definidos, interagir com sistemas corporativos por meio de ferramentas controladas e produzir resultados que alimentam diretamente os fluxos de trabalho operacionais. A principal mudança ocorre quando a IA não apenas gera sugestões, mas também é capaz de executar ações definidas de forma confiável dentro de um sistema governado, permitindo que as organizações automatizem partes do trabalho intelectual complexo, em vez de apenas aprimorá-lo.

Com o aumento da fiscalização regulatória em torno da IA ​​em todo o mundo, como você vê a evolução da infraestrutura central de IA para atender aos requisitos de conformidade sem limitar a inovação?

Com o aumento do escrutínio regulatório em torno da IA, acredito que veremos uma mudança em relação às arquiteturas que simplesmente chamam APIs de provedores de modelos e confiam cegamente nos resultados. Empresas e órgãos reguladores exigirão cada vez mais sistemas onde o comportamento da IA ​​seja observável, auditável e governado. É aqui que arquiteturas como a Unidade de Processamento de Conhecimento (KPU) se tornam importantes. Esse tipo de arquitetura permite que as organizações implementem controles, rastreiem decisões e garantam que os resultados da IA ​​sejam confiáveis ​​antes de influenciarem processos reais. Com o tempo, espero que esses tipos de sistemas se tornem a base padrão para uma infraestrutura de IA confiável.

Você já falou sobre ética e responsabilidade em relação ao seu trabalho técnico. Como essas perspectivas influenciam sua abordagem na construção de sistemas de IA transparentes?

Para mim, ética e responsabilidade se traduzem diretamente em escolhas de design de sistemas. Se os sistemas de IA vão participar de fluxos de trabalho operacionais reais, eles não podem funcionar como caixas-pretas opacas cujo comportamento não pode ser inspecionado ou compreendido. Essa perspectiva influenciou fortemente a minha abordagem na construção de sistemas de IA. Transparência, rastreabilidade e supervisão humana precisam ser incorporadas à arquitetura desde o início. Isso significa garantir que as etapas de raciocínio possam ser observadas, as decisões possam ser auditadas e as ações sejam executadas por meio de mecanismos controlados. Quando esses princípios são incorporados ao nível da infraestrutura, os sistemas de IA se tornam não apenas mais confiáveis, mas também mais fáceis de serem governados de forma responsável pelas organizações.

Olhando para o futuro, você acredita que a infraestrutura de IA orientada a agentes se tornará tão fundamental quanto a infraestrutura em nuvem foi na década passada — e o que precisa acontecer tecnicamente para que essa mudança se materialize?

Acredito que a infraestrutura de IA agente tem o potencial de se tornar tão fundamental quanto a infraestrutura em nuvem se tornou na última década. À medida que as organizações buscam automatizar tarefas de conhecimento cada vez mais complexas, elas precisarão de sistemas capazes de coordenar de forma confiável raciocínio, memória e execução em diversas tarefas e fontes de dados. No entanto, para que essa mudança se concretize, a arquitetura subjacente precisa amadurecer e ir além da simples integração de modelos. Precisamos de uma infraestrutura que forneça raciocínio estruturado, acesso confiável ao conhecimento corporativo, alta observabilidade e execução controlada de ações. Quando essas capacidades forem incorporadas ao sistema central, a IA agente poderá evoluir de ferramentas experimentais para uma infraestrutura confiável na qual as organizações se baseiam para executar operações críticas.

Obrigado pela ótima entrevista, os leitores que desejam saber mais devem visitar Maisa AI.

Antoine é um líder visionário e sócio fundador da Unite.AI, movido por uma paixão inabalável por moldar e promover o futuro da IA ​​e da robótica. Um empreendedor em série, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego delirando sobre o potencial das tecnologias disruptivas e da AGI.

Como um futurista, ele se dedica a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Valores Mobiliários.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.