Ética
Pesquisadores Desenvolvem Algoritmos Visando Prevenir Comportamento Indesejado em IA

Juntamente com todos os avanços e vantagens que a inteligência artificial tem exibido até agora, também houve relatos de efeitos colaterais indesejados, como viés racial e de gênero em IA. Então, como sciencealert.com coloca a pergunta “como os cientistas podem garantir que sistemas de pensamento avançados possam ser justos, ou mesmo seguros?”
A resposta pode estar no relatório dos pesquisadores de Stanford e da Universidade de Massachusetts Amherst, intitulado Prevenindo comportamento indesejado de máquinas inteligentes. Como eurekaalert.org nota em sua história sobre este relatório, a IA agora está começando a lidar com tarefas sensíveis, então “os formuladores de políticas estão insistindo que os cientistas da computação forneçam garantias de que os sistemas automatizados foram projetados para minimizar, se não evitar completamente, resultados indesejados, como risco excessivo ou viés racial e de gênero.”
O relatório que essa equipe de pesquisadores apresentou “descreve uma nova técnica que traduz um objetivo difuso, como evitar viés de gênero, em critérios matemáticos precisos que permitiriam que um algoritmo de aprendizado de máquina treinasse um aplicativo de IA para evitar esse comportamento.”
O propósito era, como Emma Brunskill, professora assistente de ciência da computação em Stanford e autora sênior do artigo, destaca “queremos avançar em IA que respeite os valores de seus usuários humanos e justifique a confiança que depositamos em sistemas autônomos.”
A ideia era definir resultados ou comportamentos “inseguros” ou “injustos” em termos matemáticos. Isso, segundo os pesquisadores, tornaria possível “criar algoritmos que possam aprender com dados sobre como evitar esses resultados indesejados com alta confiança.”
O segundo objetivo era “desenvolver um conjunto de técnicas que tornem fácil para os usuários especificar quais tipos de comportamento indesejado eles desejam restringir e permitir que os designers de aprendizado de máquina prevejam com confiança que um sistema treinado com dados passados possa ser confiável quando aplicado em circunstâncias do mundo real.”
ScienceAlert diz que a equipe nomeou esse novo sistema de algoritmos ‘Seldonianos’, em homenagem ao personagem central da famosa série de romances de ficção científica Foundation de Isaac Asimov. Philip Thomas, professor assistente de ciência da computação na Universidade de Massachusetts Amherst e autor principal do artigo, observa, “Se eu usar um algoritmo Seldoniano para tratamento de diabetes, posso especificar que comportamento indesejado significa baixo nível de açúcar no sangue perigoso ou hipoglicemia.”
“Posso dizer à máquina, ‘Enquanto você tenta melhorar o controle na bomba de insulina, não faça alterações que aumentem a frequência de hipoglicemia.’ A maioria dos algoritmos não oferece uma maneira de impor esse tipo de restrição ao comportamento; isso não foi incluído nos projetos iniciais.”
Thomas acrescenta que “essa estrutura Seldoniana tornará mais fácil para os designers de aprendizado de máquina incorporar instruções de evasão de comportamento em todos os tipos de algoritmos, de uma maneira que permita que eles avaliem a probabilidade de que os sistemas treinados funcionem corretamente no mundo real.”
Por sua parte, Emma Brunskill também observa que “pensar sobre como podemos criar algoritmos que respeitem melhor os valores como segurança e justiça é essencial, à medida que a sociedade cada vez mais depende da IA.”
