Líderes de pensamento
Pontuando a Lacuna de Confiança da IA
A adoção da IA está atingindo um ponto crítico de inflexão. As empresas estão adotando a IA com entusiasmo, impulsionadas por sua promessa de alcançar melhorias de magnitude na eficiência operacional.
Um recente levantamento da Slack descobriu que a adoção da IA continua a acelerar, com o uso da IA em locais de trabalho experimentando um aumento recente de 24% e 96% dos executivos entrevistados acreditando que “é urgente integrar a IA em todas as operações comerciais.”
No entanto, há um divórcio cada vez maior entre a utilidade da IA e a crescente ansiedade sobre seus impactos adversos potenciais. Apenas 7% dos trabalhadores de escritório acreditam que as saídas da IA são confiáveis o suficiente para ajudá-los em tarefas relacionadas ao trabalho.
Essa lacuna é evidente no contraste marcante entre o entusiasmo dos executivos pela integração da IA e o ceticismo dos funcionários relacionado a fatores como:
- Vieses e Justiça: Os sistemas de IA podem perpetuar ou até mesmo agravar vieses existentes, levando a resultados injustos.
- Privacidade e Segurança: Os funcionários se preocupam com como seus dados pessoais são coletados, armazenados e usados pelos sistemas de IA.
- Tomada de Decisões Opaca: Os sistemas de IA muitas vezes operam como “caixas pretas”, tomando decisões que são difíceis para os humanos entenderem ou explicarem.
- Ansiedade com a Automação: Há um medo generalizado de que a IA substituirá os empregos humanos, levando ao desemprego e instabilidade econômica.
O Papel da Legislação na Construção da Confiança
Para abordar essas questões de confiança multifacetadas, as medidas legislativas estão sendo cada vez mais vistas como um passo necessário. A legislação pode desempenhar um papel fundamental na regulamentação do desenvolvimento e implantação da IA, aumentando assim a confiança. As abordagens legislativas-chave incluem:
- Leis de Proteção de Dados e Privacidade: A implementação de leis de proteção de dados rigorosas garante que os sistemas de IA lidem com dados pessoais de forma responsável. Regulamentações como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia estabelecem um precedente, exigindo transparência, minimização de dados e consentimento do usuário. Em particular, o Artigo 22 do GDPR protege os titulares de dados contra os impactos adversos potenciais da tomada de decisões automatizada. As decisões recentes do Tribunal de Justiça da União Europeia (CJEU) confirmam os direitos de uma pessoa de não ser submetida à tomada de decisões automatizada. No caso de Schufa Holding AG, em que um residente alemão foi recusado para um empréstimo bancário com base em um sistema de tomada de decisões de crédito automatizado, o tribunal decidiu que o Artigo 22 exige que as organizações implementem medidas para salvaguardar os direitos de privacidade relacionados ao uso de tecnologias de IA.
- Regulamentações de IA: A União Europeia ratificou o Ato de IA da UE (UE AIA), que visa regular o uso de sistemas de IA com base em seus níveis de risco. O Ato inclui requisitos obrigatórios para sistemas de IA de alto risco, abrangendo áreas como qualidade de dados, documentação, transparência e supervisão humana. Um dos principais benefícios das regulamentações de IA é a promoção da transparência e explicabilidade dos sistemas de IA. Além disso, o UE AIA estabelece quadros de responsabilidade claros, garantindo que os desenvolvedores, operadores e até os usuários dos sistemas de IA sejam responsáveis por suas ações e pelos resultados da implantação da IA. Isso inclui mecanismos de recurso se um sistema de IA causar danos. Quando as pessoas e as organizações são responsabilizadas, isso constrói confiança de que os sistemas de IA são gerenciados de forma responsável.
Iniciativas de Padrões para Fomentar uma Cultura de IA Confiável
As empresas não precisam esperar que novas leis sejam executadas para estabelecer se seus processos estão dentro das diretrizes éticas e confiáveis. As regulamentações de IA funcionam em conjunto com as iniciativas de padrões de IA emergentes que permitem que as organizações implementem governança de IA responsável e as melhores práticas durante todo o ciclo de vida dos sistemas de IA, abrangendo design, implementação, implantação e, eventualmente, desativação.
O Instituto Nacional de Padrões e Tecnologia (NIST) nos Estados Unidos desenvolveu um Quadro de Gestão de Risco de IA para orientar as organizações na gestão de riscos relacionados à IA. O quadro é estruturado em torno de quatro funções principais:
- Entender o sistema de IA e o contexto em que opera. Isso inclui definir o propósito, os stakeholders e os impactos potenciais do sistema de IA.
- Quantificar os riscos associados ao sistema de IA, incluindo aspectos técnicos e não técnicos. Isso envolve avaliar o desempenho do sistema, confiabilidade e vieses potenciais.
- Implementar estratégias para mitigar os riscos identificados. Isso inclui desenvolver políticas, procedimentos e controles para garantir que o sistema de IA opere dentro de níveis de risco aceitáveis.
- Estabelecer estruturas de governança e mecanismos de responsabilidade para supervisionar o sistema de IA e seus processos de gestão de risco. Isso envolve revisões e atualizações regulares da estratégia de gestão de risco.
Em resposta aos avanços nas tecnologias de IA gerativa NIST também publicou o Quadro de Gestão de Risco de IA: Perfil de IA Gerativa, que fornece orientação para mitigar riscos específicos associados a Modelos Fundamentais. Essas medidas abrangem a proteção contra usos nefastos (por exemplo, desinformação, conteúdo degradante, discurso de ódio) e aplicações éticas de IA que se concentram em valores humanos de justiça, privacidade, segurança da informação, propriedade intelectual e sustentabilidade.
Além disso, a Organização Internacional para Padronização (ISO) e a Comissão Eletrotécnica Internacional (IEC) desenvolveram em conjunto ISO/IEC 23894, um padrão abrangente para a gestão de risco de IA. Esse padrão fornece uma abordagem sistemática para identificar e gerenciar riscos em todo o ciclo de vida da IA, incluindo identificação de risco, avaliação da gravidade do risco, tratamento para mitigar ou evitar e monitoramento e revisão contínuos.
O Futuro da IA e da Confiança Pública
Olhando para o futuro, o futuro da IA e da confiança pública provavelmente dependerá de vários fatores-chave que são essenciais para que todas as organizações sigam:
- Realizar uma avaliação de risco abrangente para identificar questões de conformidade potenciais. Avalie as implicações éticas e vieses potenciais em seus sistemas de IA.
- Estabelecer uma equipe multifuncional que inclua profissionais de direito, conformidade, TI e ciência de dados. Essa equipe deve ser responsável por monitorar as alterações regulamentares e garantir que seus sistemas de IA adiram a novas regulamentações.
- Implementar uma estrutura de governança que inclua políticas, procedimentos e funções para gerenciar as iniciativas de IA. Garanta a transparência nas operações e processos de tomada de decisões da IA.
- Realizar auditorias internas regulares para garantir a conformidade com as regulamentações de IA. Use ferramentas de monitoramento para acompanhar o desempenho do sistema de IA e a adesão a padrões regulamentares.
- Educar os funcionários sobre ética de IA, requisitos regulamentares e as melhores práticas. Forneça sessões de treinamento contínuas para manter o pessoal informado sobre alterações nas regulamentações de IA e estratégias de conformidade.
- Mantenha registros detalhados dos processos de desenvolvimento de IA, uso de dados e critérios de tomada de decisões. Esteja preparado para gerar relatórios que possam ser apresentados a reguladores, se necessário.
- Construir relacionamentos com órgãos reguladores e participar de consultas públicas. Forneça feedback sobre regulamentações propostas e busque esclarecimentos quando necessário.
Contextualizar a IA para Alcançar uma IA Confiável
Em última análise, a IA confiável depende da integridade dos dados. A dependência da IA gerativa de grandes conjuntos de dados não equivale à precisão e confiabilidade das saídas; se algo, é contraintuitivo para ambos os padrões. A Geração Aumentada de Recuperação (RAG) é uma técnica inovadora que “combina LLMs estáticos com dados contextuais específicos. E pode ser pensada como um assistente altamente conhecedor. Um que combina o contexto da consulta com dados específicos de uma base de conhecimento abrangente.” RAG permite que as organizações forneçam aplicações contextuais específicas que atendem às expectativas de privacidade, segurança, precisão e confiabilidade. RAG melhora a precisão das respostas geradas recuperando informações relevantes de uma base de conhecimento ou repositório de documentos. Isso permite que o modelo baseie sua geração em informações precisas e atualizadas.
RAG permite que as organizações construam aplicações de IA personalizadas que são altamente precisas, cientes do contexto e adaptáveis para melhorar a tomada de decisões, aprimorar as experiências do cliente, otimizar as operações e alcançar vantagens competitivas significativas.
Ponteando a lacuna de confiança da IA envolve garantir transparência, responsabilidade e uso ético da IA. Embora não haja uma resposta única para manter esses padrões, as empresas têm estratégias e ferramentas à sua disposição. A implementação de medidas robustas de privacidade de dados e a adesão a padrões regulamentares constroem a confiança do usuário. A auditoria regular dos sistemas de IA para vieses e imprecisões garante a justiça. Aumentar os LLMs com IA personalizada entrega confiança incorporando bases de conhecimento e fontes de dados proprietárias. Engajar os stakeholders sobre as capacidades e limitações da IA também fomenta confiança e aceitação.
A IA confiável não é facilmente alcançada, mas é um compromisso vital para o nosso futuro.












