toco Preconceito de IA e estereótipos culturais: efeitos, limitações e mitigação - Unite.AI
Entre em contato

Inteligência artificial

Preconceito de IA e estereótipos culturais: efeitos, limitações e mitigação

mm

Publicado

 on

Preconceito de IA e estereótipos culturais: efeitos, limitações e mitigação

Inteligência Artificial (IA), particularmente IA generativa, continua a superar as expectativas com sua capacidade de compreender e imitar a cognição e a inteligência humanas. No entanto, em muitos casos, os resultados ou previsões dos sistemas de IA podem refletir vários tipos de preconceitos da IA, tais como culturais e raciais.

Barbies do mundo”Blog (que agora foi excluído) manifesta claramente esses preconceitos e imprecisões culturais. Essas 'barbies' foram criadas usando Meio da jornada – um gerador líder de imagens de IA, para descobrir como seriam as barbies em todas as partes do mundo. Falaremos mais sobre isso mais adiante.

Mas esta não é a primeira vez que a IA é “racista” ou produz resultados imprecisos. Por exemplo, em 2022, a Apple foi processou sobre alegações de que o sensor de oxigênio no sangue do Apple Watch era tendencioso contra pessoas de cor. Em outro caso relatado, os usuários do Twitter descobriram que IA de corte automático de imagens do Twitter favoreceu os rostos dos brancos em detrimento dos negros e das mulheres em detrimento dos homens. Estes são desafios críticos e enfrentá-los é significativamente desafiador.

Neste artigo, veremos o que é o preconceito da IA, como ele afeta a nossa sociedade e discutiremos brevemente como os profissionais podem mitigar para enfrentar desafios como estereótipos culturais.

O que é preconceito de IA?

O preconceito de IA ocorre quando os modelos de IA produzem resultados discriminatórios contra determinados dados demográficos. Vários tipos de preconceitos podem entrar nos sistemas de IA e produzir resultados incorretos. Alguns desses preconceitos de IA são:

  • Viés estereotipado: O preconceito estereotipado refere-se ao fenômeno em que os resultados de um modelo de IA consistem em estereótipos ou noções percebidas sobre um determinado grupo demográfico.
  • Preconceito racial: O preconceito racial na IA acontece quando o resultado de um modelo de IA é discriminatório e injusto para um indivíduo ou grupo com base na sua etnia ou raça.
  • Viés cultural: O preconceito cultural entra em jogo quando os resultados de um modelo de IA favorecem uma determinada cultura em detrimento de outra.

Além dos preconceitos, outras questões também podem prejudicar os resultados de um sistema de IA, tais como:

  • Imprecisões: As imprecisões ocorrem quando os resultados produzidos por um modelo de IA estão incorretos devido a dados de treinamento inconsistentes.
  • Alucinações: As alucinações ocorrem quando os modelos de IA produzem resultados fictícios e falsos que não são baseados em dados factuais.

O impacto do preconceito da IA ​​na sociedade

O impacto do preconceito da IA ​​na sociedade pode ser prejudicial. Os sistemas tendenciosos de IA podem produzir resultados imprecisos que amplificam o preconceito já existente na sociedade. Estes resultados podem aumentar a discriminação e as violações de direitos, afetar os processos de contratação e reduzir a confiança na tecnologia de IA.

Além disso, resultados tendenciosos de IA muitas vezes levam a previsões imprecisas que podem ter consequências graves para indivíduos inocentes. Por exemplo, em agosto de 2020, Robert McDaniel tornou-se alvo de um ato criminoso devido ao algoritmo de policiamento preditivo do Departamento de Polícia de Chicago, que o rotulou como uma “pessoa de interesse”.

Da mesma forma, sistemas de IA de saúde tendenciosos podem ter resultados agudos para os pacientes. Em 2019, Ciência descobriu que um produto amplamente utilizado Algoritmo médico dos EUA tinha preconceito racial contra pessoas de cor, o que fez com que os pacientes negros recebessem menos cuidados de alto risco.

Barbies do mundo

Em julho 2023, Buzzfeed publicou um blog compreendendo 194 barbies geradas por IA de todo o mundo. A postagem viralizou no Twitter. Embora o Buzzfeed tenha escrito uma declaração de isenção de responsabilidade, isso não impediu os internautas de apontar as imprecisões raciais e culturais. Por exemplo, a imagem gerada por IA da Barbie alemã usava o uniforme de uma SS nazista geral.

Barbies do Mundo-image5

Da mesma forma, a imagem gerada por IA de uma Barbie do Sudão do Sul foi mostrada segurando uma arma ao seu lado, refletindo o preconceito profundamente enraizado nos algoritmos de IA.

Barbies do Mundo-image4

Além disso, diversas outras imagens mostraram imprecisões culturais, como a da Barbie do Catar usando um Gutra, um cocar tradicional usado pelos homens árabes.

Barbies do Mundo-image3

Esta postagem do blog recebeu uma reação massiva por estereótipos e preconceitos culturais. O Escola Interdisciplinar de Londres (LIS) chamou isso dano representacional que deve ser controlado através da imposição de padrões de qualidade e do estabelecimento de órgãos de supervisão da IA.

Limitações dos modelos de IA

A IA tem potencial para revolucionar muitas indústrias. Mas, se cenários como os mencionados acima proliferarem, isso poderá levar a uma queda na adoção geral da IA, resultando em oportunidades perdidas. Esses casos normalmente ocorrem devido a limitações significativas nos sistemas de IA, tais como:

  • Falta de criatividade: Como a IA só pode tomar decisões com base nos dados de treinamento fornecidos, falta-lhe criatividade para pensar fora da caixa, o que dificulta a resolução criativa de problemas.
  • Falta de compreensão contextual: Os sistemas de IA enfrentam dificuldade em compreender nuances contextuais ou expressões linguísticas de uma região, o que muitas vezes leva a erros nos resultados.
  • Viés de treinamento: A IA depende de dados históricos que podem conter todos os tipos de amostras discriminatórias. Durante o treinamento, o modelo pode aprender facilmente padrões discriminatórios para produzir resultados injustos e tendenciosos.

Como reduzir o preconceito em modelos de IA

Especialistas estimativa que até 2026, 90% do conteúdo online poderá ser gerado sinteticamente. Portanto, é vital minimizar rapidamente os problemas presentes nas tecnologias de IA generativa.

Várias estratégias importantes podem ser implementadas para reduzir o preconceito nos modelos de IA. Alguns deles são:

  • Garanta a qualidade dos dados: A ingestão de dados completos, precisos e limpos em um modelo de IA pode ajudar a reduzir preconceitos e produzir resultados mais precisos.
  • Conjuntos de dados diversos: A introdução de diversos conjuntos de dados num sistema de IA pode ajudar a mitigar preconceitos à medida que o sistema de IA se torna mais inclusivo ao longo do tempo.
  • Regulamentos aumentados: As regulamentações globais de IA são cruciais para manter a qualidade dos sistemas de IA além-fronteiras. Portanto, as organizações internacionais devem trabalhar em conjunto para garantir a padronização da IA.
  • Maior adoção de IA responsável: Estratégias responsáveis ​​de IA contribuem positivamente para mitigar preconceitos de IA, cultivando justiça e precisão em sistemas de IA e garantindo que eles atendam a uma base diversificada de usuários, ao mesmo tempo em que se esforçam para melhorias contínuas.

Ao incorporar diversos conjuntos de dados, responsabilidade ética e meios de comunicação abertos, podemos garantir que a IA seja uma fonte de mudanças positivas em todo o mundo.

Se você quiser saber mais sobre o preconceito e o papel da Inteligência Artificial em nossa sociedade, leia os blogs a seguir.