- Terminologia (A a D)
- Controle de capacidade de IA
- AIOps
- Albumentações
- Desempenho dos Ativos
- Codificador automático
- Retropropagação
- Teorema de Bayes
- Big Data
- Chatbot: um guia para iniciantes
- Pensamento Computacional
- Visão de Computador
- Matriz de Confusão
- Redes Neurais Convolucionais
- Cíber segurança
- Tecido de dados
- Contação de histórias de dados
- Ciência dados
- Data warehousing
- Árvore de decisão
- Deepfakes
- Aprendizagem profunda
- Aprendizagem por Reforço Profundo
- devops
- DevSecOps
- Modelos de Difusão
- Digital Twin
- Redução de dimensionalidade
- Terminologia (E a K)
- IA de borda
- Emoção AI
- Ensemble Learning
- Ethical Hacking
- ETL
- IA explicável
- Aprendizagem Federada
- FinOps
- IA generativa
- Rede Adversarial Geradora
- Generativo vs. Discriminativo
- Intensificação de Gradiente
- Gradiente descendente
- Aprendizagem de poucos tiros
- Classificação de imagens
- Operações de TI (ITOps)
- Automação de Incidentes
- Engenharia de influência
- K-significa clusters
- Vizinhos mais próximos
- Terminologia (L a Q)
- Terminologia (R a Z)
- Aprendizagem por Reforço
- IA responsável
- RLHF
- Automação de Processo Robótica
- Estruturado x Não Estruturado
- Análise de Sentimentos
- Supervisionado x Não supervisionado
- Máquinas de vetor de suporte
- Dados Sintéticos
- Mídia Sintética
- Classificação de Texto
- TinyML
- Aprendizagem por transferência
- Redes Neurais Transformadoras
- Teste de Turing
- Pesquisa de semelhança vetorial
AI 101
O que é IA responsável? Princípios, Desafios e Benefícios
By
Haziqa SajidÍndice analítico
IA responsável (RAI) refere-se a projetar e implantar sistemas de IA que sejam transparentes, imparciais, responsáveis e sigam diretrizes éticas. À medida que os sistemas de IA se tornam mais robustos e predominantes, é essencial garantir que sejam desenvolvidos com responsabilidade e seguindo as diretrizes éticas e de segurança.
Saúde, Transporte, Gerenciamento de Rede e Vigilância são aplicativos de IA críticos para a segurança onde a falha do sistema pode ter consequências graves. As grandes empresas estão cientes de que o RAI é essencial para mitigar os riscos tecnológicos. No entanto, de acordo com um relatório do MIT Sloan/BCG que incluiu 1093 entrevistados, 54% das empresas careciam de experiência e talento em IA responsável.
Embora líderes e organizações tenham desenvolvido princípios para IA responsável, garantir o desenvolvimento responsável de sistemas de IA ainda apresenta desafios. Vamos explorar essa ideia em detalhes:
5 Princípios para IA Responsável
1. Justiça
Os tecnólogos devem projetar procedimentos para que os sistemas de IA tratem todos os indivíduos e grupos de maneira justa, sem preconceitos. Portanto, a imparcialidade é o principal requisito em aplicativos de tomada de decisão de alto risco.
justiça é definido como:
“Examinar o impacto em vários grupos demográficos e escolher uma das várias definições matemáticas de justiça de grupo que satisfará adequadamente o conjunto desejado de requisitos legais, culturais e éticos.”
2. Prestação de contas
Responsabilidade significa que indivíduos e organizações que desenvolvem e implantam sistemas de IA devem ser responsáveis por suas decisões e ações. A equipe que implanta sistemas de IA deve garantir que seu sistema de IA seja transparente, interpretável, auditável e não prejudique a sociedade.
Responsabilidade inclui Sete Componentes:
- Contexto (finalidade para a qual a responsabilidade é necessária)
- Faixa (sujeito de responsabilidade)
- Agente (quem é responsável?)
- Fórum (a quem o responsável deve reportar)
- Padrões (critérios de responsabilidade)
- Processo (método de prestação de contas)
- Implicações (consequências da responsabilidade)
3. Transparência
Transparência significa que a razão por trás da tomada de decisões em sistemas de IA é clara e compreensível. Sistemas transparentes de IA são explicáveis.
De acordo com o Lista de Avaliação para Inteligência Artificial Confiável (ALTAI), a transparência tem três elementos principais:
- Rastreabilidade (os dados, as etapas de pré-processamento e o modelo estão acessíveis)
- Explicabilidade (o raciocínio por trás da tomada de decisão/previsão é claro)
- Comunicação Aberta (sobre a limitação do sistema AI)
4. Privacidade
A privacidade é um dos princípios fundamentais da IA responsável. Refere-se à proteção de informações pessoais. Este princípio garante que as informações pessoais das pessoas sejam coletadas e processadas com consentimento e mantidas fora do alcance de descontentes.
Como evidenciado recentemente, houve um caso da Clearview, empresa que fabrica modelos de reconhecimento facial para aplicação da lei e universidades. vigilantes de dados do Reino Unido processou a Clearview AI em £ 7.5 milhões por coletar imagens de residentes do Reino Unido nas mídias sociais sem consentimento para criar um banco de dados de 20 bilhões de imagens.
5. Segurança
Segurança significa garantir que os sistemas de IA sejam seguros e não ameacem a sociedade. Um exemplo de ameaça de segurança de IA é ataques adversários. Esses ataques maliciosos induzem os modelos de ML a tomar decisões incorretas. Proteger os sistemas de IA contra ataques cibernéticos é fundamental para uma IA responsável.
4 principais desafios e riscos da IA responsável
1. Viés
Os preconceitos humanos relacionados à idade, gênero, nacionalidade e raça podem afetar a coleta de dados, levando potencialmente a modelos de IA tendenciosos. Estudo do Departamento de Comércio dos EUA descobriram que a IA de reconhecimento facial identifica erroneamente pessoas de cor. Portanto, o uso de IA para reconhecimento facial na aplicação da lei pode levar a prisões injustas. Além disso, criar modelos de IA justos é um desafio porque existem 21 diferentes parâmetros para defini-los. Portanto, há um trade-off; satisfazer um parâmetro justo de IA significa sacrificar outro.
2. Interpretabilidade
A interpretabilidade é um desafio crítico no desenvolvimento de uma IA responsável. Refere-se à compreensão de como o modelo de aprendizado de máquina chegou a uma conclusão específica.
As redes neurais profundas carecem de interpretabilidade porque operam como caixas pretas com várias camadas de neurônios ocultos, dificultando a compreensão do processo de tomada de decisão. Isso pode ser um desafio na tomada de decisões de alto risco, como saúde, finanças, etc.
Além disso, formalizar a interpretabilidade em modelos de ML é um desafio porque é subjetivo e específico do domínio.
3. Governança
A governança refere-se a um conjunto de regras, políticas e procedimentos que supervisionam o desenvolvimento e a implantação de sistemas de IA. Recentemente, houve um progresso significativo no discurso de governança de IA, com organizações apresentando estruturas e diretrizes éticas.
Orientações éticas para IA confiável pela UE, Estrutura Australiana de Ética de IA e Princípios de IA da OCDE são exemplos de estruturas de governança de IA.
Mas o rápido avanço da IA nos últimos anos pode ultrapassar essas estruturas de governança de IA. Para esse fim, é necessário haver uma estrutura que avalie a justiça, a interpretabilidade e a ética dos sistemas de IA.
4. Regulamento
À medida que os sistemas de IA se tornam mais prevalentes, é preciso haver regulamentação para considerar os valores éticos e sociais. Desenvolver uma regulamentação que não reprima a inovação da IA é um desafio crítico na IA responsável.
Mesmo com o Regulamento Geral de Proteção de Dados (GDPR), a Lei de Privacidade do Consumidor da Califórnia (CCPA) e a Lei de Proteção de Informações Pessoais (PIPL) como órgãos reguladores, os pesquisadores de IA descobriram que 97% dos sites da UE não cumprem os requisitos da estrutura legal do GDPR.
Além disso, os legisladores enfrentam um desafio significativo em chegar a um consenso sobre a definição de IA que inclui tanto os sistemas clássicos de IA quanto os mais recentes aplicativos de IA.
3 principais benefícios da IA responsável
1. Viés Reduzido
A IA responsável reduz o preconceito nos processos de tomada de decisão, construindo confiança nos sistemas de IA. A redução do preconceito nos sistemas de IA pode proporcionar um sistema de saúde justo e equitativo e reduz o preconceito nos sistemas baseados em IA. serviços financeiros etc.
2. Transparência aprimorada
A IA responsável cria aplicativos de IA transparentes que criam confiança nos sistemas de IA. Sistemas transparentes de IA diminuir o risco de erro e uso indevido. A transparência aprimorada facilita a auditoria de sistemas de IA, conquista a confiança das partes interessadas e pode levar a sistemas de IA responsáveis.
3. Melhor Segurança
Aplicativos seguros de IA garantem a privacidade dos dados, produzem resultados confiáveis e inofensivos e estão protegidos contra ataques cibernéticos.
Gigantes da tecnologia como Microsoft e Google, que estão na vanguarda do desenvolvimento de sistemas de IA, desenvolveram princípios de IA responsável. A IA responsável garante que a inovação em IA não seja prejudicial aos indivíduos e à sociedade.
Líderes de pensamento, pesquisadores, organizações e autoridades legais devem revisar continuamente a literatura de IA responsável para garantir um futuro seguro para a inovação em IA.
Para mais conteúdo relacionado à IA, visite uni-vos.ai.
Haziqa é um Cientista de Dados com vasta experiência em escrever conteúdo técnico para empresas de IA e SaaS.
Você pode gostar
Diálogo interno da IA: como a autorreflexão aprimora chatbots e assistentes virtuais
Estilo instantâneo: preservação de estilo na geração de texto para imagem
LoReFT: ajuste fino de representação para modelos de linguagem
Além dos mecanismos de pesquisa: a ascensão dos agentes de navegação na Web com tecnologia LLM
Aprimorando a transparência e a confiança da IA com IA composta
Data centers de GPU sobrecarregam redes de energia: equilibrando inovação em IA e consumo de energia