toco Pesquisadores de IA propõem recompensar o viés da IA ​​para torná-la mais ética - Unite.AI
Entre em contato

Ética

Pesquisadores de IA propõem recompensar o viés da IA ​​para torná-la mais ética

mm

Publicado

 on

Uma equipe de pesquisadores de IA de empresas e laboratórios de desenvolvimento de IA como Intel, Google Brain e OpenAI recomendou o uso de recompensas para ajudar a garantir o uso ético da IA. A equipe de pesquisadores divulgou recentemente uma série de propostas relacionadas ao uso ético da IA ​​e incluiu uma sugestão de que recompensar as pessoas por descobrirem vieses na IA pode ser uma maneira eficaz de tornar a IA mais justa.

Como relatórios VentureBeat, pesquisadores de várias empresas nos Estados Unidos e na Europa se uniram para elaborar um conjunto de diretrizes éticas para o desenvolvimento de IA, bem como sugestões de como atender às diretrizes. Uma das sugestões feitas pelos pesquisadores foi oferecer recompensas aos desenvolvedores que encontrassem viés nos programas de IA. A sugestão foi feita em um artigo intitulado “Rumo ao desenvolvimento de IA confiável: mecanismos para apoiar reivindicações verificáveis".

Como exemplos dos vieses que a equipe de pesquisadores espera abordar, dados e algoritmos tendenciosos foram encontrados em tudo, desde aplicativos de saúde a sistemas de reconhecimento facial usados ​​pela aplicação da lei. Uma dessas ocorrências de viés é a ferramenta de avaliação de risco PATTERN, usada recentemente pelo Departamento de Justiça dos EUA para triar prisioneiros e decidir quais poderiam ser mandados para casa ao reduzir o tamanho da população carcerária em resposta à pandemia de coronavírus.

A prática de recompensar desenvolvedores por encontrar comportamento indesejável em programas de computador é Um velho, mas esta pode ser a primeira vez que um conselho de ética da AI avançou seriamente com a ideia como uma opção para combater o viés da IA. Embora seja improvável que haja desenvolvedores de IA suficientes para encontrar vieses suficientes para que a IA possa ser ética, isso ainda ajudaria as empresas a reduzir o viés geral e ter uma noção de que tipo de viés está vazando em seus sistemas de IA.

Os autores do artigo explicaram que o conceito de bug-bounty pode ser estendido para IA com o uso de viés e recompensas de segurança e que o uso adequado dessa técnica pode levar a conjuntos de dados e modelos mais bem documentados. A documentação refletiria melhor as limitações do modelo e dos dados. Os pesquisadores ainda observam que a mesma ideia pode ser aplicada a outras propriedades da IA, como interpretabilidade, segurança e proteção de privacidade.

À medida que mais e mais discussões ocorrem em torno dos princípios éticos da IA, muitos observaram que os princípios por si só não são suficientes e que ações devem ser tomadas para manter a ética da IA. Os autores do artigo observam que “os regulamentos e normas existentes na indústria e na academia são insuficientes para garantir o desenvolvimento responsável da IA”. O cofundador do Google Brain e líder da indústria de IA, Andrew Ng, também opinou que os princípios orientadores sozinhos carecem da capacidade de garantir que a IA seja usada de forma responsável e justa, dizendo que muitos deles precisam ser mais explícitos e ter ideias acionáveis.

A recomendação tendenciosa de caça de recompensas da equipe de pesquisa combinada é uma tentativa de ir além dos princípios éticos para uma área de ação ética. A equipe de pesquisa também fez várias outras recomendações que podem estimular ações éticas no campo da IA.

A equipe de pesquisa fez várias outras recomendações que as empresas podem seguir para tornar seu uso de IA mais ético. Eles sugerem que um banco de dados centralizado de incidentes de IA deve ser criado e compartilhado entre a comunidade de IA mais ampla. Da mesma forma, os pesquisadores propõem que uma trilha de auditoria seja estabelecida e que essas trilhas preservem informações sobre a criação e implantação de aplicativos críticos de segurança em plataformas de IA.

Para preservar a privacidade das pessoas, a equipe de pesquisa sugeriu que deveriam ser empregadas técnicas centradas na privacidade, como comunicações criptografadas, aprendizagem federada e privacidade diferencial. Além disso, a equipa de investigação sugeriu que as alternativas de código aberto deveriam ser amplamente disponibilizadas e que os modelos comerciais de IA deveriam ser rigorosamente examinados. Finalmente, a equipe de pesquisa sugere que o financiamento governamental seja aumentado para que os pesquisadores acadêmicos possam verificar as afirmações de desempenho do hardware.