toco Princípios de ética da AI passam por meta-análise, direitos humanos enfatizados - Unite.AI
Entre em contato

Ética

Os princípios de ética da IA ​​passam por meta-análise, enfatizando os direitos humanos

mm

Publicado

 on

Em 2019, houve mais foco na ética da IA ​​do que nunca. No entanto, grande parte dessa discussão parecia nebulosa, sem uma abordagem codificada. Em vez disso, diferentes empresas criaram suas próprias estruturas e políticas relacionadas à ética da IA. Ter um consenso sobre as questões éticas da IA ​​é importante porque ajuda os formuladores de políticas a criar e ajustar políticas, além de informar o trabalho feito por pesquisadores e acadêmicos. Além disso, as empresas de IA devem saber onde estão os limites éticos se quiserem evitar a implementação antiética da IA. Para criar uma imagem melhor das tendências na ética da IA, como relatórios VentureBeats, o Berkman Klein Center da Universidade de Harvard realizou uma metanálise dos vários princípios e estruturas éticas de IA existentes.

De acordo com os autores da análise, os pesquisadores queriam comparar os princípios lado a lado para procurar sobreposições e divergências. Jessica Fjeld, diretora assistente da Harvard Law School Cyberlaw Clinic, explicou que a equipe de pesquisa queria “descobrir o momento oculto em uma conversa global fragmentada sobre o futuro da IA, resultando neste white paper e na visualização de dados associada”.

Durante a análise, a equipe examinou 36 documentos de princípio de IA diferentes, originários de todo o mundo e provenientes de muitos tipos organizacionais diferentes. Os resultados da pesquisa descobriram que havia oito temas que continuavam aparecendo em muitos documentos.

Privacidade e responsabilidade foram dois dos temas éticos mais comuns, assim como a segurança/proteção da IA. Transparência/explicabilidade também foi um objetivo comumente citado, com muitas tentativas de tornar os algoritmos mais explicáveis ​​ao longo de 2019. Justiça/não discriminação foi outro ponto focal ético, refletindo preocupações crescentes sobre viés de dados. Garantir o controle humano da tecnologia e não entregar o poder de decisão à IA também foi fortemente mencionado. A responsabilidade profissional foi o sétimo tema comum encontrado pelos pesquisadores. Por fim, os pesquisadores encontraram menções contínuas à promoção de valores humanos na documentação ética da IA ​​que examinaram.

A equipe de pesquisa forneceu detalhamentos qualitativos e quantitativos de como esses temas se manifestaram na documentação de ética da IA ​​em seu artigo e em um anexo mapa,. O mapa mostra onde cada um dos temas foi mencionado.

A equipe de pesquisa observou que grande parte da discussão sobre ética da IA ​​girava em torno da preocupação com os valores e direitos humanos. Como observa o trabalho de pesquisa:

“64% de nossos documentos continham uma referência aos direitos humanos, e cinco documentos [14%] adotavam os direitos humanos internacionais como estrutura para seu esforço geral.”

Referências a direitos humanos e valores foram mais comuns em documentos produzidos por grupos do setor privado e grupos da sociedade civil. Isso indica que as empresas de IA do setor privado não estão preocupadas apenas com lucros, mas em produzir IA de maneira ética. Enquanto isso, as agências governamentais parecem menos preocupadas ou conscientes da ética da IA ​​em geral, com menos da metade dos documentos relacionados à IA originários de agências governamentais que se preocupam com a ética da IA.

Os pesquisadores também observaram que, se os documentos examinados fossem mais recentes, era mais provável que abordassem todos os oito temas mais proeminentes, em vez de apenas alguns. Este fato implica que as ideias por trás do que constitui o uso ético da IA ​​estão começando a se fundir entre aqueles que lideram a discussão sobre a ética da IA. Finalmente, os pesquisadores afirmam que o sucesso desses princípios em orientar o desenvolvimento da IA ​​dependerá de quão bem integrados eles estão na comunidade de desenvolvimento de IA em geral. Os pesquisadores afirmam no artigo:

“Além disso, os princípios são um ponto de partida para a governança, não um fim. Por si só, é improvável que um conjunto de princípios seja mais do que gentilmente persuasivo. É provável que seu impacto dependa de como está inserido em um ecossistema de governança mais amplo, incluindo, por exemplo, políticas relevantes (por exemplo, planos nacionais de IA), leis, regulamentos, mas também práticas profissionais e rotinas diárias”.

Blogueiro e programador com especialidades em Machine Learning e Aprendizagem profunda tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA ​​para o bem social.