Connect with us

Inteligência artificial

A Inteligência Artificial Pode Evitar Comportamentos Indesejados Específicos Com Novos Algoritmos

mm

À medida que os algoritmos e sistemas de inteligência artificial se tornam mais sofisticados e assumem responsabilidades maiores, torna-se cada vez mais importante garantir que os sistemas de IA evitem comportamentos perigosos e indesejados. Recentemente, uma equipe de pesquisadores da Universidade de Massachusetts Amherst e Stanford publicou um artigo que demonstra como o comportamento específico da IA pode ser evitado, por meio da utilização de uma técnica que elicita instruções matemáticas precisas que podem ser usadas para ajustar o comportamento de uma IA.

De acordo com o TechXplore, a pesquisa foi baseada na suposição de que comportamentos injustos ou perigosos podem ser definidos com funções e variáveis matemáticas. Se isso for verdade, então deve ser possível para os pesquisadores treinarem sistemas para evitar esses comportamentos específicos. A equipe de pesquisa visou desenvolver uma ferramenta que pudesse ser empregada pelos usuários da IA para especificar quais comportamentos eles desejam que a IA evite, e permitir que os engenheiros de IA treinem um sistema que evite ações indesejadas quando usado em cenários do mundo real.

Phillip Thomas, o primeiro autor do artigo e professor assistente de ciência da computação na U de Michigan Amherst, explicou que a equipe de pesquisa visa demonstrar que os designers de algoritmos de aprendizado de máquina podem tornar mais fácil para os utilizadores da IA descrever comportamentos indesejados e ter uma grande probabilidade de que o sistema de IA evite o comportamento.

A equipe de pesquisa testou sua técnica aplicando-a a um problema comum na ciência de dados, o viés de gênero. A equipe de pesquisa visou tornar os algoritmos usados para prever a GPA de estudantes de faculdade mais justos, reduzindo o viés de gênero. A equipe de pesquisa utilizou um conjunto de dados experimental e instruiu seu sistema de IA para evitar a criação de modelos que subestimassem ou superestimassem as GPAs para um gênero. Como resultado das instruções dos pesquisadores, o algoritmo criou um modelo que previa melhor as GPAs dos estudantes e tinha substancialmente menos viés de gênero sistemático do que os modelos existentes. Os modelos de previsão de GPA anteriores sofriam de viés porque os modelos de redução de viés eram frequentemente muito limitados para serem úteis, ou nenhum modelo de redução de viés era usado.

Um algoritmo diferente também foi desenvolvido pela equipe de pesquisa. Esse algoritmo foi implementado em uma bomba de insulina automatizada, e o algoritmo foi projetado para equilibrar tanto o desempenho quanto a segurança. As bombas de insulina automatizadas precisam decidir qual dose de insulina um paciente deve receber. Após a refeição, a bomba deve idealmente entregar uma dose de insulina apenas suficiente para manter os níveis de açúcar no sangue sob controle. As doses de insulina entregues devem ser nem muito grandes nem muito pequenas.

Os algoritmos de aprendizado de máquina já são proficientes em identificar padrões na resposta de um indivíduo a doses de insulina, mas esses métodos de análise existentes não permitem que os médicos especifiquem resultados que devem ser evitados, como quedas de açúcar no sangue. Em contraste, a equipe de pesquisa foi capaz de desenvolver um método que pode ser treinado para entregar doses de insulina que permaneçam dentro dos dois extremos, evitando tanto a subdose quanto a sobredose. Embora o sistema não esteja pronto para testes em pacientes reais ainda, um AI mais sofisticado baseado nessa abordagem pode melhorar a qualidade de vida para aqueles que sofrem de diabetes.

No artigo de pesquisa, os pesquisadores se referem ao algoritmo como um algoritmo “Seledonian”. Isso é em referência às três leis da robótica descritas pelo autor de ficção científica Isaac Asimov. A implicação é que o sistema de IA “não pode machucar um ser humano ou, por inação, permitir que um ser humano sofra danos”. A equipe de pesquisa espera que sua estrutura permita que os pesquisadores e engenheiros de IA criem uma variedade de algoritmos e sistemas que evitem comportamentos perigosos. Emma Brunskill, autora sênior do artigo e professora assistente de ciência da computação de Stanford, explicou ao TechXplore:

“Queremos avançar a IA que respeita os valores de seus usuários humanos e justifica a confiança que depositamos em sistemas autônomos.”

Blogueiro e programador com especialidades em Machine Learning e Deep Learning tópicos. Daniel espera ajudar os outros a usar o poder da IA para o bem social.