Entre em contato

Por que as empresas devem adotar uma abordagem baseada em valores para a governança da IA?

Líderes de pensamento

Por que as empresas devem adotar uma abordagem baseada em valores para a governança da IA?

mm

Em setembro de 2025, pela primeira vez, todos os Estados-membros das Nações Unidas reuniram-se para discutir a governança internacional da IA; muitos deles estiveram novamente representados em fevereiro na Cúpula de Impacto da IA ​​em Nova Déli. O evento levou ao lançamento de dois novos órgãos centrados na governança da IA; mas foi, na melhor das hipóteses, um sucesso simbólico.

Os novos mecanismos da ONU foram concebidos para garantir consenso: eles se afastam de áreas controversas, como o uso militar da IA, e carecem de fontes claras de financiamento e poderes de execução. Isso não deveria surpreender observadores experientes. A ONU atual não tem capacidade de agir com rapidez ou garantir a adesão universal às suas decisões, o que a torna um fórum difícil para efetivar mudanças reais.

Isso se encaixa em um padrão bem estabelecido. Apesar de anos de tentativas esporádicas de construir consenso sobre a regulamentação da IA, não houve acordos internacionais significativos, criando um vácuo no qual países e blocos individuais foram forçados a desenvolver suas próprias regras. No entanto, a governança eficaz da IA ​​é crucial se quisermos vê-la amplamente adotada, conquistar a confiança do público e ser usada de maneiras que gerem benefícios sociais e econômicos duradouros.

Improvisar e consertar

Para empresas globais que desenvolvem e operam sistemas de IA, essa falta de mecanismos de governança comuns e consensuais é problemática. Elas desejam implantar sistemas de IA em todo o mundo, mas não há duas jurisdições que sigam o mesmo conjunto de regras. Assim, são obrigadas a criar uma estrutura de governança genérica para seus sistemas e, em seguida, reconstruí-la do zero em cada país em que operam para garantir a conformidade com as leis e regulamentações locais. Essa abordagem gera uma enorme quantidade de trabalho extra, encarece as iniciativas de IA e as torna mais propensas a atrasos, além de enfraquecer a capacidade das empresas globais de obter economias de escala e compartilhar ferramentas eficazes com usuários em todo o mundo.

Existe, no entanto, uma alternativa. Para empresas que buscam otimizar sua abordagem, a melhor opção pode ser construir uma estrutura de governança de IA que leve em conta princípios éticos comuns a essas diferentes regiões, garantindo que atendam a altos padrões em todos os lugares em termos de proteção da liberdade, privacidade e segurança dos indivíduos. Essa técnica representa uma maneira poderosa para empresas de IA aumentarem a confiança pública em sua tecnologia, fortalecerem sua base de clientes e aproveitarem os benefícios potenciais da IA ​​para a sociedade.

Seis valores-chave para a governança da IA

Para qualquer organização interessada em adotar uma abordagem baseada em valores para a governança da IA, eu sugiro usar os seis valores-chave que seguimos: responsabilidade, explicabilidade, transparência, imparcialidade, segurança e contestabilidade.

Escolhemos esses valores porque eles abrangem todas as principais áreas do ciclo de vida do sistema de IA e porque já foram codificados em várias normas internacionais e nacionais relacionadas à IA, como as da Organização Internacional de Normalização (ISO). ISO / IEC 42001 e Manual de Inteligência Artificial para o Governo do Reino Unido.

Começando pelo topo, a responsabilidade significa saber quem é responsável por cada etapa do ciclo de vida da IA. Sem uma definição clara de responsabilidades, controles vitais podem ser omitidos, pois nenhum indivíduo ou equipe detém a responsabilidade final. As organizações devem designar responsáveis ​​seniores e nomeados – como o Diretor de IA – para os sistemas de IA e etapas-chave, e utilizar um modelo de governança baseado em riscos, aplicando o mesmo rigor às ferramentas de terceiros que às desenvolvidas internamente. Isso significa compreender os termos, limitações e responsabilidades dos fornecedores tão bem quanto compreendem seus próprios sistemas.

A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) retrata isso muito bem em suas orientações sobre como promover a responsabilização na IA, que recomenda que as organizações criem “mecanismos para incorporar o processo de gestão de riscos de IA na governança organizacional mais ampla, promovendo uma cultura de gestão de riscos tanto dentro das organizações quanto em toda a cadeia de valor da IA”.

Em seguida, vem a explicabilidade. As organizações devem ser capazes de demonstrar como Um sistema de IA toma uma decisão. Isso requer mecanismos para documentar e rastrear a tomada de decisão, juntamente com registros claros do projeto do sistema, dados de treinamento e processos de decisão. Em conjunto, isso permite que as equipes compreendam a linhagem das informações desde a concepção de um sistema até sua implantação.

A equidade centra-se em garantir que os sistemas de IA produzam resultados justos e não repliquem ou amplifiquem preconceitos existentes. Sem verificações deliberadas, os sistemas podem causar danos ao apresentar resultados distorcidos – um problema particularmente grave em áreas de grande impacto, como recrutamento, saúde e justiça criminal. Para mitigar este problema, as organizações devem implementar medidas de deteção de preconceitos, rever regularmente os resultados em todos os grupos relevantes e conceber estruturas de governação que possam acomodar os requisitos locais de não discriminação. Na prática, isto significa construir sistemas que cumpram os mais elevados padrões legais que possam encontrar, incluindo as obrigações previstas em leis como a Lei da Igualdade de 2010 do Reino Unido e a Carta dos Direitos Fundamentais da UE.

Transparência significa trazer clareza tanto para usuários quanto para reguladores. As pessoas precisam entender quando a IA está sendo usada, qual o seu papel na tomada de decisões e quais dados a sustentam. Um ponto de partida prático é padronizar a documentação em todos os sistemas de IA, com o apoio de ferramentas internas, como fichas de modelos: documentos concisos fornecidos com os modelos de aprendizado de máquina que explicam o contexto em que os modelos devem ser usados, detalhes dos procedimentos de avaliação de desempenho e outras informações relevantes. Sem transparência, os usuários não podem contestar resultados injustos, os reguladores não podem intervir de forma eficaz e impactos nocivos podem ser ocultados.

A segurança envolve a proteção de sistemas de IA contra acesso não autorizado, manipulação ou comportamento indesejado. Se a segurança for frágil, as IAs podem colocar organizações, usuários e seus dados em risco, expondo-os a danos financeiros e à reputação. As organizações devem definir limites de desempenho e precisão, realizar testes de estresse em sistemas sob condições realistas e incorporar testes de intrusão (red team) para identificar vulnerabilidades.

Por fim, a contestabilidade garante que as pessoas tenham uma maneira clara e acessível de contestar ou recorrer de decisões baseadas em IA. Sem ela, os usuários afetados não têm como recorrer e os problemas podem nunca ser identificados ou resolvidos. As organizações devem fornecer canais de denúncia no ponto de uso, designar responsáveis ​​seniores para gerenciar as reclamações e garantir que os sistemas possam ser pausados, revisados ​​ou atualizados quando necessário.

Quais são os benefícios de uma estrutura baseada em valores?

Existem dois motivos importantes para adotar essa abordagem baseada em valores para a governança da IA. Primeiro, porque aqueles que desenvolvem e implementam sistemas de IA têm uma responsabilidade ética para com as pessoas e organizações afetadas por eles; e, segundo, porque essa é uma maneira mais eficaz de concretizar os benefícios prometidos pela IA na prática.

Os usuários de sistemas de IA, tanto corporativos quanto individuais, depositam confiança implícita em seus criadores para que não façam mau uso de dados pessoais nem os exponham a riscos desnecessários. Quando as organizações quebram essa confiança, torna-se muito difícil para elas reterem esses usuários. Em última análise, a menos que as pessoas confiem nos sistemas de IA e possam ver os benefícios claros que eles oferecem, elas não concordarão com a sua implementação. Isso causará mais divisões sociais e econômicas, e perderemos muitas das oportunidades apresentadas por essa tecnologia.

Por outro lado, empresas que aplicam uma estrutura baseada em valores em todos os lugares – inclusive em regiões com requisitos de governança mais flexíveis – podem demonstrar a clientes, investidores e reguladores que estão se pautando por um padrão mais elevado do que as exigências básicas de conformidade. Isso gera confiança, engajamento e, em última análise, sucesso nos negócios.

Uma governança robusta de IA gera valor, não representa um ônus de conformidade. Ela permite que as empresas lancem novos produtos no mercado mais rapidamente, reduzam sua exposição a riscos e expandam suas soluções para diversos mercados com confiança.

'McKinsey'O estado da IA' descobriu que “A supervisão da governança de IA por parte do CEO… é um dos elementos mais correlacionados com um maior impacto nos resultados financeiros relatados pela própria organização, decorrente do uso de IA de última geração.” sublinhando os benefícios comerciais de tal abordagem. Nesse sentido, incorporar fortes estruturas éticas em sistemas de IA representa um interesse próprio esclarecido.

Além de tudo isso, é simplesmente a coisa certa a fazer. Construímos nossa política global de IA ética em torno do mesmo princípio: que as tecnologias avançadas devem servir às pessoas e à sociedade, e não o contrário. Isso reflete a visão mais ampla da Sociedade 5.0: um modelo de inovação centrado no ser humano que busca combinar o progresso econômico com a resolução de desafios sociais.

Para que tecnologias emergentes como a IA promovam uma sociedade mais feliz e harmoniosa, elas precisam ser construídas sobre bases éticas sólidas. Isso começa com um foco não apenas nos padrões que as organizações são obrigadas a cumprir, mas também nos padrões que elas gostariam de alcançar.

Isabella Grandi é Diretora de Estratégia de Dados e IA, Governança e Ética na NTT DATA Reino Unido e IrlandaEla trabalha em parceria com organizações para moldar e implementar IA responsável e governança de IA que as ajudem a sair do estado atual e a adotar um modelo operacional mais maduro e orientado por dados.

Seu trabalho se concentra em incorporar práticas éticas e uma gestão robusta de riscos de IA na forma como as organizações projetam e implementam IA, garantindo que o uso responsável seja integrado às estruturas de tomada de decisão e às operações diárias.