toco O que é IA responsável? Princípios, desafios e benefícios - Unite.AI
Entre em contato
Masterclass de IA:

AI 101

O que é IA responsável? Princípios, Desafios e Benefícios

mm
Atualização do on
Uma pessoa segurando o globo em suas mãos enquanto está em pé nos campos.

IA responsável (RAI) refere-se a projetar e implantar sistemas de IA que sejam transparentes, imparciais, responsáveis ​​e sigam diretrizes éticas. À medida que os sistemas de IA se tornam mais robustos e predominantes, é essencial garantir que sejam desenvolvidos com responsabilidade e seguindo as diretrizes éticas e de segurança.

Saúde, Transporte, Gerenciamento de Rede e Vigilância são aplicativos de IA críticos para a segurança onde a falha do sistema pode ter consequências graves. As grandes empresas estão cientes de que o RAI é essencial para mitigar os riscos tecnológicos. No entanto, de acordo com um relatório do MIT Sloan/BCG que incluiu 1093 entrevistados, 54% das empresas careciam de experiência e talento em IA responsável.

Embora líderes e organizações tenham desenvolvido princípios para IA responsável, garantir o desenvolvimento responsável de sistemas de IA ainda apresenta desafios. Vamos explorar essa ideia em detalhes:

5 Princípios para IA Responsável

1. Justiça

Os tecnólogos devem projetar procedimentos para que os sistemas de IA tratem todos os indivíduos e grupos de maneira justa, sem preconceitos. Portanto, a imparcialidade é o principal requisito em aplicativos de tomada de decisão de alto risco.

justiça é definido como:

“Examinar o impacto em vários grupos demográficos e escolher uma das várias definições matemáticas de justiça de grupo que satisfará adequadamente o conjunto desejado de requisitos legais, culturais e éticos.”

2. Prestação de contas

Responsabilidade significa que indivíduos e organizações que desenvolvem e implantam sistemas de IA devem ser responsáveis ​​por suas decisões e ações. A equipe que implanta sistemas de IA deve garantir que seu sistema de IA seja transparente, interpretável, auditável e não prejudique a sociedade.

Responsabilidade inclui Sete Componentes:

  1. Contexto (finalidade para a qual a responsabilidade é necessária)
  2. Faixa (sujeito de responsabilidade)
  3. Agente (quem é responsável?)
  4. Fórum (a quem o responsável deve reportar)
  5. Padrões (critérios de responsabilidade)
  6. Processo (método de prestação de contas)
  7. Implicações (consequências da responsabilidade)

3. Transparência

Transparência significa que a razão por trás da tomada de decisões em sistemas de IA é clara e compreensível. Sistemas transparentes de IA são explicáveis.

De acordo com o Lista de Avaliação para Inteligência Artificial Confiável (ALTAI), a transparência tem três elementos principais:

  1. Rastreabilidade (os dados, as etapas de pré-processamento e o modelo estão acessíveis)
  2. Explicabilidade (o raciocínio por trás da tomada de decisão/previsão é claro)
  3. Comunicação Aberta (sobre a limitação do sistema AI)

4. Privacidade

A privacidade é um dos princípios fundamentais da IA ​​responsável. Refere-se à proteção de informações pessoais. Este princípio garante que as informações pessoais das pessoas sejam coletadas e processadas com consentimento e mantidas fora do alcance de descontentes.

Como evidenciado recentemente, houve um caso da Clearview, empresa que fabrica modelos de reconhecimento facial para aplicação da lei e universidades. vigilantes de dados do Reino Unido processou a Clearview AI em £ 7.5 milhões por coletar imagens de residentes do Reino Unido nas mídias sociais sem consentimento para criar um banco de dados de 20 bilhões de imagens.

5. Segurança

Segurança significa garantir que os sistemas de IA sejam seguros e não ameacem a sociedade. Um exemplo de ameaça de segurança de IA é ataques adversários. Esses ataques maliciosos induzem os modelos de ML a tomar decisões incorretas. Proteger os sistemas de IA contra ataques cibernéticos é fundamental para uma IA responsável.

4 principais desafios e riscos da IA ​​responsável

1. Viés

Os preconceitos humanos relacionados à idade, gênero, nacionalidade e raça podem afetar a coleta de dados, levando potencialmente a modelos de IA tendenciosos. Estudo do Departamento de Comércio dos EUA descobriram que a IA de reconhecimento facial identifica erroneamente pessoas de cor. Portanto, o uso de IA para reconhecimento facial na aplicação da lei pode levar a prisões injustas. Além disso, criar modelos de IA justos é um desafio porque existem 21 diferentes parâmetros para defini-los. Portanto, há um trade-off; satisfazer um parâmetro justo de IA significa sacrificar outro.

2. Interpretabilidade

A interpretabilidade é um desafio crítico no desenvolvimento de uma IA responsável. Refere-se à compreensão de como o modelo de aprendizado de máquina chegou a uma conclusão específica.

As redes neurais profundas carecem de interpretabilidade porque operam como caixas pretas com várias camadas de neurônios ocultos, dificultando a compreensão do processo de tomada de decisão. Isso pode ser um desafio na tomada de decisões de alto risco, como saúde, finanças, etc.

Além disso, formalizar a interpretabilidade em modelos de ML é um desafio porque é subjetivoespecífico do domínio.

3. Governança

A governança refere-se a um conjunto de regras, políticas e procedimentos que supervisionam o desenvolvimento e a implantação de sistemas de IA. Recentemente, houve um progresso significativo no discurso de governança de IA, com organizações apresentando estruturas e diretrizes éticas.

Orientações éticas para IA confiável pela UEEstrutura Australiana de Ética de IAPrincípios de IA da OCDE são exemplos de estruturas de governança de IA.

Mas o rápido avanço da IA ​​nos últimos anos pode ultrapassar essas estruturas de governança de IA. Para esse fim, é necessário haver uma estrutura que avalie a justiça, a interpretabilidade e a ética dos sistemas de IA.

4. Regulamento

À medida que os sistemas de IA se tornam mais prevalentes, é preciso haver regulamentação para considerar os valores éticos e sociais. Desenvolver uma regulamentação que não reprima a inovação da IA ​​é um desafio crítico na IA responsável.

Mesmo com o Regulamento Geral de Proteção de Dados (GDPR), a Lei de Privacidade do Consumidor da Califórnia (CCPA) e a Lei de Proteção de Informações Pessoais (PIPL) como órgãos reguladores, os pesquisadores de IA descobriram que 97% dos sites da UE não cumprem os requisitos da estrutura legal do GDPR.

Além disso, os legisladores enfrentam um desafio significativo em chegar a um consenso sobre a definição de IA que inclui tanto os sistemas clássicos de IA quanto os mais recentes aplicativos de IA.

3 principais benefícios da IA ​​responsável

1. Viés Reduzido

A IA responsável reduz o preconceito nos processos de tomada de decisão, construindo confiança nos sistemas de IA. A redução do preconceito nos sistemas de IA pode proporcionar um sistema de saúde justo e equitativo e reduz o preconceito nos sistemas baseados em IA. serviços financeiros etc.

2. Transparência aprimorada

A IA responsável cria aplicativos de IA transparentes que criam confiança nos sistemas de IA. Sistemas transparentes de IA diminuir o risco de erro e uso indevido. A transparência aprimorada facilita a auditoria de sistemas de IA, conquista a confiança das partes interessadas e pode levar a sistemas de IA responsáveis.

3. Melhor Segurança

Aplicativos seguros de IA garantem a privacidade dos dados, produzem resultados confiáveis ​​e inofensivos e estão protegidos contra ataques cibernéticos.

Gigantes da tecnologia como MicrosoftGoogle, que estão na vanguarda do desenvolvimento de sistemas de IA, desenvolveram princípios de IA responsável. A IA responsável garante que a inovação em IA não seja prejudicial aos indivíduos e à sociedade.

Líderes de pensamento, pesquisadores, organizações e autoridades legais devem revisar continuamente a literatura de IA responsável para garantir um futuro seguro para a inovação em IA.

Para mais conteúdo relacionado à IA, visite uni-vos.ai.