Inteligência artificial
Pesquisadores Desenvolvem Ferramenta “DeepTrust” para Aumentar a Confiabilidade da IA

A segurança e confiabilidade da inteligência artificial (IA) é um dos maiores aspectos da tecnologia. Ela está constantemente sendo aprimorada e trabalhada por especialistas de ponta nos diferentes campos, e será crucial para a implementação total da IA em toda a sociedade.
Algumas dessas novas pesquisas estão saindo da Universidade do Sul da Califórnia, onde os pesquisadores da USC Viterbi Engineering desenvolveram uma nova ferramenta capaz de gerar indicadores automáticos para determinar se os algoritmos de IA são confiáveis em seus dados e previsões.
A pesquisa foi publicada em Frontiers in Artificial Intelligence, intitulada “Há Esperança Após Tudo: Quantificando Opinião e Confiabilidade em Redes Neurais”. Os autores do artigo incluem Mingxi Cheng, Shahin Nazarian e Paul Bogdan do Grupo de Sistemas Físicos da USC.
Confiabilidade de Redes Neurais
Uma das maiores tarefas nesta área é fazer com que as redes neurais gerem previsões que possam ser confiáveis. Em muitos casos, é isso que impede a adoção total da tecnologia que depende da IA.
Por exemplo, veículos autônomos precisam agir de forma independente e tomar decisões precisas em piloto automático. Eles precisam ser capazes de tomar essas decisões extremamente rápido, enquanto decifram e reconhecem objetos na estrada. Isso é crucial, especialmente em cenários em que a tecnologia precisaria decifrar a diferença entre um quebra-molas, outro objeto ou um ser vivo.
Outros cenários incluem o veículo autônomo decidindo o que fazer quando outro veículo se aproxima de frente, e a decisão mais complexa de todas é se o veículo autônomo precisar decidir entre atingir o que ele percebe como outro veículo, algum objeto ou um ser vivo.
Isso tudo significa que estamos colocando uma quantidade extrema de confiança na capacidade do software do veículo autônomo de tomar a decisão correta em frações de segundo. Isso se torna ainda mais difícil quando há informações conflitantes de diferentes sensores, como visão computacional de câmeras e Lidar.
O autor principal Minxi Cheng decidiu assumir este projeto após pensar: “Mesmo os humanos podem ser indecisos em certos cenários de tomada de decisão. Em casos que envolvem informações conflitantes, por que as máquinas não podem nos dizer quando elas não sabem?”
DeepTrust
A ferramenta criada pelos pesquisadores é chamada de DeepTrust, e é capaz de quantificar a quantidade de incerteza, de acordo com Paul Bogdan, professor associado do Departamento de Engenharia Elétrica e de Computação da USC.
A equipe passou quase dois anos desenvolvendo o DeepTrust, principalmente usando lógica subjetiva para avaliar as redes neurais. Em um exemplo da ferramenta funcionando, ela foi capaz de analisar as pesquisas da eleição presidencial de 2016 e prever que havia uma margem de erro maior para a vitória de Hillary Clinton.
A ferramenta DeepTrust também facilita a verificação da confiabilidade dos algoritmos de IA normalmente treinados em até milhões de pontos de dados. A outra forma de fazer isso é verificar independentemente cada um dos pontos de dados para testar a precisão, o que é uma tarefa extremamente demorada.
De acordo com os pesquisadores, a arquitetura desses sistemas de redes neurais é mais precisa, e a precisão e confiabilidade podem ser maximizadas simultaneamente.
“Até onde sabemos, não há modelo ou ferramenta de quantificação de confiabilidade para aprendizado profundo, inteligência artificial e aprendizado de máquina. Esta é a primeira abordagem e abre novas direções de pesquisa”, afirma Bogdan.
Bogdan também acredita que o DeepTrust pode ajudar a impulsionar a IA para o ponto em que ela seja “consciente e adaptável”.












