Líderes de pensamento
Por que as empresas devem seguir uma abordagem baseada em valores para a governança de IA

Em setembro de 2025, pela primeira vez, todos os estados-membros das Nações Unidas se reuniram para discutir a governança internacional de IA; muitos foram representados novamente em fevereiro no AI Impact Summit em Delhi. O evento levou ao lançamento de dois novos órgãos centrados na governança de IA; mas foi, no melhor dos casos, um sucesso simbólico.
Os novos mecanismos da ONU foram projetados para garantir o consenso: eles evitam áreas contestadas, como usos militares de IA, e carecem de fontes claras de financiamento e poderes de aplicação. Isso não deve ser uma surpresa para observadores experientes. A ONU de hoje carece da capacidade de se mover rapidamente ou garantir a conformidade universal com suas decisões, tornando-a um fórum difícil para efetuar mudanças reais.
Isso se encaixa em um padrão bem estabelecido. Apesar de anos de tentativas esparsas de construir consenso sobre regulamentações de IA, não houve acordos internacionais significativos, criando um vazio no qual países e blocos individuais foram forçados a desenvolver suas próprias regras. No entanto, a governança eficaz de IA é crucial se desejamos vê-la adotada amplamente, confiada pelo público e usada de maneiras que entreguem benefícios sociais e econômicos duradouros
Conserte e Repare
Para empresas globais que constroem e operam sistemas de IA, a falta de mecanismos de governança comuns e acordados é problemática. Eles desejam implantar sistemas de IA em todo o mundo, mas nenhum dois jurisdições seguem o mesmo conjunto de regras. Então, eles são forçados a criar um quadro de governança genérico em torno de seu sistema, então reconstruí-lo do zero em cada país em que operam para garantir que ele esteja em conformidade com as leis e regulamentações locais. Essa abordagem cria uma enorme quantidade de trabalho extra, torna as iniciativas de IA mais caras e propensas a atrasos, e enfraquece a capacidade das empresas globais de realizar economias de escala e compartilhar ferramentas eficazes com os usuários em todos os lugares.
Há, no entanto, uma alternativa. Para empresas que buscam simplificar sua abordagem, a melhor opção pode ser construir um quadro de governança de IA que leve em conta princípios éticos comuns em diferentes regiões, garantindo que eles atendam a altos padrões em todos os lugares em termos de proteção da liberdade, privacidade e segurança dos indivíduos. Essa técnica representa uma maneira poderosa para as empresas de IA aumentarem a confiança do público em sua tecnologia, fortalecerem sua base de clientes e aproveitarem os benefícios potenciais da IA para a sociedade.
Seis Valores-Chave para a Governança de IA
Para qualquer organização interessada em adotar uma abordagem baseada em valores para a governança de IA, eu sugeriria usar os seis valores-chave que seguimos: responsabilidade, explicabilidade, transparência, justiça, segurança e contestabilidade.
Escolhemos esses valores porque eles cobrem todas as principais áreas do ciclo de vida do sistema de IA e porque eles já foram codificados em vários padrões internacionais e nacionais relacionados à IA, como o ISO/IEC 42001 e o Artificial Intelligence Playbook for the UK Government.
Para começar, a responsabilidade significa saber quem é responsável por quê em cada estágio do ciclo de vida da IA. Sem uma propriedade clara, controles vitais podem ser omitidos porque nenhum indivíduo ou equipe detém a responsabilidade última. As organizações devem designar proprietários seniores nomeados – como seu Diretor de IA – para sistemas de IA e estágios-chave e usar um modelo de governança baseado em risco, aplicando o mesmo escrutínio a ferramentas de terceiros quanto às desenvolvidas internamente. Isso significa entender os termos do fornecedor, limitações e responsabilidades tão bem quanto entendem seus próprios sistemas.
A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) captura isso bem em sua orientação sobre avançar a responsabilidade na IA, que recomenda que as organizações criem “mecanismos para incorporar o processo de gerenciamento de risco de IA no governo organizacional mais amplo, fomentando uma cultura de gerenciamento de risco tanto dentro das organizações quanto em toda a cadeia de valor de IA”.
Em seguida, vem a explicabilidade. As organizações devem ser capazes de mostrar como um sistema de IA chega a uma decisão. Isso requer mecanismos para documentar e rastrear a tomada de decisão, ao lado de registros claros de design do sistema, dados de treinamento e processos de decisão. Tomados em conjunto, isso permite que as equipes entendam a linhagem de informações desde a concepção do sistema até a implantação.
A justiça se concentra em garantir que os sistemas de IA produzam resultados equitativos e não repliquem ou amplifiquem vieses existentes. Sem verificações deliberadas, os sistemas podem causar danos ao entregar resultados inclinados – um problema particular em áreas de alto impacto, como recrutamento, saúde e justiça criminal. Para mitigar isso, as organizações devem implementar medidas de detecção de vieses, revisar as saídas regularmente em grupos relevantes e projetar quadros de governança que possam acomodar requisitos locais de não discriminação. Na prática, isso significa construir sistemas para atender ao padrão legal mais alto que eles provavelmente encontrarão, incluindo obrigações sob leis como a Lei de Igualdade de 2010 do Reino Unido e a Carta de Direitos Fundamentais da UE.
A transparência é sobre trazer clareza tanto para os usuários quanto para os reguladores. As pessoas devem entender quando a IA está sendo usada, qual é o papel que desempenha na tomada de decisão e quais dados a fundamentam. Um ponto de partida prático é padronizar a documentação em todos os sistemas de IA, apoiada por ferramentas internas, como cartões de modelo: documentos curtos fornecidos com modelos de aprendizado de máquina que explicam o contexto em que os modelos são destinados a ser usados, detalhes dos procedimentos de avaliação de desempenho e outras informações relevantes. Sem transparência, os usuários não podem contestar resultados injustos, os reguladores não podem intervir de forma eficaz e impactos prejudiciais podem ser varridos para baixo do tapete.
A segurança envolve proteger os sistemas de IA de acesso não autorizado, manipulação ou comportamento não intencional. Se a segurança for fraca, as IAs podem colocar as organizações, os usuários e seus dados em risco, expô-los a danos financeiros e de reputação. As organizações devem definir limiares de desempenho e precisão, testar os sistemas em condições realistas e incorporar testes de equipe vermelha para identificar vulnerabilidades.
Finalmente, a contestabilidade garante que as pessoas tenham uma maneira clara e acessível de desafiar ou apelar de decisões impulsionadas por IA. Sem isso, os usuários afetados não têm recurso e os problemas podem nunca ser apresentados ou resolvidos. As organizações devem fornecer canais de relatórios no ponto de uso, designar proprietários seniores para gerenciar reclamações e garantir que os sistemas possam ser pausados, revisados ou atualizados quando necessário.
Quais são os Benefícios de um Quadro Baseado em Valores?
Há dois motivos poderosos para adotar essa abordagem baseada em valores para a governança de IA. Primeiro, porque aqueles que constroem e implantam sistemas de IA têm uma responsabilidade ética para com as pessoas e organizações afetadas por eles; e, segundo, porque essa é uma maneira mais eficaz de realizar os benefícios prometidos da IA na prática.
Os usuários dos sistemas de IA, tanto corporativos quanto individuais, depositam confiança implícita em seus criadores para não malusar dados pessoais ou expô-los a riscos desnecessários. Quando as organizações quebram essa confiança, torna-se muito difícil para elas reter esses usuários. Em última análise, a menos que as pessoas confiem nos sistemas de IA e possam ver os benefícios claros que eles entregam, elas não irão aceitar sua introdução. Isso causará mais divisão social e econômica, e perderemos muitas das oportunidades apresentadas por essa tecnologia.
Por outro lado, as empresas que aplicam um quadro baseado em valores em todos os lugares – incluindo em regiões com requisitos de governança mais relaxados – podem demonstrar a seus clientes, investidores e reguladores que estão se mantendo em um padrão mais alto do que o exigido pelo cumprimento básico. Isso constrói confiança, engajamento e, em última análise, sucesso nos negócios.
Uma governança de IA sólida é uma criadora de valor, não uma carga de conformidade. Ela permite que as empresas lancem novos produtos no mercado mais rapidamente, reduzam sua exposição a riscos e escalem suas soluções em vários mercados com confiança.
O relatório “O estado da IA” da McKinsey encontrou que “a supervisão do CEO sobre a governança de IA… é um elemento mais correlacionado com um impacto de linha de fundo mais alto auto-relatado do uso de IA geral da organização,” sublinhando os benefícios comerciais de tal abordagem. Nesse sentido, construir quadros éticos sólidos nos sistemas de IA representa um interesse próprio esclarecido.
Além disso, é simplesmente a coisa certa a fazer. Construímos nossa política global de IA ética em torno do mesmo princípio: que as tecnologias avançadas devem servir às pessoas e à sociedade, e não o contrário. Isso reflete a visão mais ampla da Sociedade 5.0: um modelo de inovação centrado no ser humano que busca combinar o progresso econômico com a resolução de desafios sociais.
Se as tecnologias emergentes, como a IA, devem fomentar uma sociedade mais feliz e harmoniosa, elas devem ser construídas em bases éticas sólidas. Isso começa com um foco não apenas nos padrões que as organizações são obrigadas a atender, mas também nos padrões que elas gostariam de alcançar.












