Líderes de pensamento
Por que o GenAI trava sem uma governança forte

À medida que as empresas lutam para mover projetos de IA Geradora da experimentação para a produção, muitas empresas permanecem presas no modo de piloto. Como nossa pesquisa recente destaca, 92% das organizações estão preocupadas que os pilotos de GenAI estão acelerando sem antes abordar questões fundamentais de dados. Ainda mais revelador: 67% não conseguiram escalar nem metade de seus pilotos para produção. Esta lacuna de produção é menos sobre maturidade tecnológica e mais sobre a prontidão dos dados subjacentes. O potencial do GenAI depende da força do terreno em que se baseia. E hoje, para a maioria das organizações, esse terreno é, no mínimo, instável.
Por que o GenAI fica preso no piloto
Embora as soluções de GenAI sejam certamente poderosas, elas são apenas tão eficazes quanto os dados que as alimentam. O velho adágio “lixo que entra, lixo que sai” é mais verdadeiro hoje do que nunca. Sem dados confiáveis, completos, autorizados e explicáveis, os modelos de GenAI muitas vezes produzem resultados que são imprecisos, tendenciosos ou inadequados para o propósito.
Infelizmente, as organizações correram para implantar casos de uso de baixo esforço, como chatbots alimentados por IA que oferecem respostas personalizadas de diferentes documentos internos. E embora esses melhorem as experiências do cliente em certa medida, eles não exigem mudanças profundas na infraestrutura de dados de uma empresa. Mas para escalar o GenAI estrategicamente, seja em saúde, serviços financeiros ou automação da cadeia de suprimentos, é necessário um nível diferente de maturidade dos dados.
De fato, 56% dos Diretores de Dados citam a confiabilidade dos dados como uma barreira-chave para a implantação da IA. Outros problemas são dados incompletos (53%), questões de privacidade (50%) e lacunas de governança de IA mais amplas (36%).
Nenhuma governança, nenhum GenAI
Para levar o GenAI além da fase de piloto, as empresas devem tratar a governança de dados como um imperativo estratégico para seus negócios. Elas precisam garantir que os dados estejam à altura do desafio de alimentar os modelos de IA e, para isso, as seguintes questões precisam ser abordadas:
- Os dados usados para treinar o modelo vêm dos sistemas certos?
- Removemos as informações de identificação pessoal e seguimos todas as regulamentações de dados e privacidade?
- Somos transparentes e podemos provar a linhagem dos dados que o modelo usa?
- Podemos documentar nossos processos de dados e estar preparados para mostrar que os dados não têm viés?
A governança de dados também precisa ser incorporada à cultura de uma organização. Para fazer isso, é necessário construir a alfabetização em IA em todas as equipes. O Ato de IA da UE formaliza essa responsabilidade, exigindo que tanto os fornecedores quanto os usuários de sistemas de IA façam esforços para garantir que os funcionários sejam suficientemente alfabetizados em IA, garantindo que entendam como esses sistemas funcionam e como usá-los de forma responsável. No entanto, a adoção eficaz de IA vai além do conhecimento técnico. Também exige uma base sólida em habilidades de dados, desde entender a governança de dados até formular questões analíticas. Tratar a alfabetização em IA de forma isolada da alfabetização em dados seria miope, considerando quão intimamente eles estão relacionados.
Em termos de governança de dados, ainda há trabalho a ser feito. Entre as empresas que desejam aumentar seus investimentos em gerenciamento de dados, 47% concordam que a falta de alfabetização em dados é uma barreira principal. Isso destaca a necessidade de construir suporte de nível superior e desenvolver as habilidades certas em toda a organização, o que é crucial. Sem esses alicerces, mesmo os LLMs mais poderosos lutariam para entregar.
Desenvolvendo IA que deve ser responsabilizada
No ambiente regulatório atual, já não é suficiente que a IA “simplesmente funcione”; ela também precisa ser responsável e explicada. O Ato de IA da UE e o plano de ação de IA proposto pelo Reino Unido requerem transparência em casos de uso de alto risco de IA. Outros estão seguindo o exemplo, e 1.000+ projetos de lei relacionados estão na agenda em 69 países.
Esse movimento global em direção à responsabilização é um resultado direto do aumento das demandas dos consumidores e partes interessadas por justiça nos algoritmos. Por exemplo, as organizações devem ser capazes de dizer os motivos pelos quais um cliente foi rejeitado para um empréstimo ou cobrado um prêmio de seguro mais alto. Para fazer isso, elas precisariam saber como o modelo tomou essa decisão, e isso, por sua vez, depende de ter um rastro claro e auditável dos dados usados para treinar o modelo.
A menos que haja explicabilidade, os negócios correm o risco de perder a confiança do cliente, além de enfrentar repercussões financeiras e legais. Como resultado, a rastreabilidade da linhagem de dados e a justificativa dos resultados não são mais um “bom para ter”, mas um requisito de conformidade.
E à medida que o GenAI se expande além de ser usado para ferramentas simples para agentes totalmente desenvolvidos que podem tomar decisões e agir sobre elas, as apostas para uma forte governança de dados aumentam ainda mais.
Passos para construir IA confiável
Então, o que é um bom exemplo? Para escalar o GenAI de forma responsável, as organizações devem buscar adotar uma estratégia de dados única em três pilares:
- Ajustar a IA ao negócio: Catalogar os dados em torno de objetivos comerciais-chave, garantindo que eles reflitam o contexto único, os desafios e as oportunidades específicas do seu negócio.
- Estabelecer confiança na IA: Estabelecer políticas, padrões e processos para conformidade e supervisão da implantação ética e responsável da IA.
- Construir pipelines de dados prontos para IA: Combinar as fontes de dados diversificadas em uma base de dados resiliente para uma robusta “assadeira” de IA, incorporando conectividade pré-construída de GenAI.
Quando as organizações fazem isso corretamente, a governança acelera o valor da IA. Por exemplo, nos serviços financeiros, os fundos hedge estão usando o GenAI para superar os analistas humanos na previsão de preços de ações enquanto reduzem significativamente os custos. Na fabricação, a otimização da cadeia de suprimentos impulsionada pela IA permite que as organizações reajam em tempo real a mudanças geopolíticas e pressões ambientais.
E essas não são apenas ideias futuristas; elas estão acontecendo agora, impulsionadas por dados confiáveis.
Com bases de dados sólidas, as empresas reduzem a deriva do modelo, limitam os ciclos de retratamento e aumentam a velocidade para obter valor. É por isso que a governança não é um obstáculo; é um facilitador da inovação.
O que vem a seguir?
Após a experimentação, as organizações estão se movendo além dos chatbots e investindo em capacidades transformacionais. Desde a personalização das interações do cliente até acelerar a pesquisa médica, melhorar a saúde mental e simplificar processos regulatórios, o GenAI começa a demonstrar seu potencial em várias indústrias.
No entanto, esses ganhos dependem inteiramente dos dados que os sustentam. O GenAI começa com a construção de uma base de dados sólida, por meio de uma forte governança de dados. E embora o GenAI e a IA agente continuem a evoluir, eles não substituirão a supervisão humana em um futuro próximo. Em vez disso, estamos entrando em uma fase de criação de valor estruturada, onde a IA se torna um co-piloto confiável. Com os investimentos certos em qualidade de dados, governança e cultura, os negócios finalmente podem transformar o GenAI de uma promessa de piloto em algo que realmente decola.












