Inteligência artificial
Equipe Desenvolve Abordagem para Comparar Redes Neurais

Uma equipe de pesquisadores no Los Alamos National Laboratory desenvolveu uma abordagem inovadora para comparar redes neurais. De acordo com a equipe, essa nova abordagem olha dentro da “caixa preta” da inteligência artificial (IA) e ajuda a entender o comportamento das redes neurais. Redes neurais, que reconhecem padrões dentro de conjuntos de dados, são usadas para uma ampla gama de aplicações, como sistemas de reconhecimento facial e veículos autônomos.
A equipe apresentou seu artigo, “If You’ve Trained One You’ve Trained Them All: Inter-Architecture Similarity Increases With Robustness,” na Conferência sobre Incerteza em Inteligência Artificial.
Haydn Jones é um pesquisador no grupo de Pesquisa Avançada em Sistemas Cibernéticos do Los Alamos e autor principal do artigo de pesquisa.
Melhor Entendendo Redes Neurais
“A comunidade de pesquisa em inteligência artificial não tem necessariamente uma compreensão completa do que as redes neurais estão fazendo; elas nos dão bons resultados, mas não sabemos como ou por quê,” disse Jones. “Nosso novo método faz um melhor trabalho de comparar redes neurais, o que é um passo crucial para entender melhor a matemática por trás da IA.
A nova pesquisa também desempenhará um papel importante em ajudar os especialistas a entender o comportamento de redes neurais robustas.
Embora as redes neurais sejam de alto desempenho, elas também são frágeis. Pequenas mudanças nas condições, como um sinal de pare parcialmente coberto que está sendo processado por um veículo autônomo, podem fazer com que a rede neural mal identifique o sinal. Isso significa que ele pode nunca parar, o que pode ser perigoso.
Treinamento Adversarial de Redes Neurais
Os pesquisadores se propuseram a melhorar esses tipos de redes neurais, olhando para maneiras de melhorar a robustez da rede. Uma das abordagens envolve “atacar” as redes durante o processo de treinamento, onde os pesquisadores introduzem intencionalmente aberrações enquanto treinam a IA para ignorá-las. O processo, que é referido como treinamento adversarial, torna mais difícil para as redes serem enganadas.
A equipe aplicou a nova métrica de similaridade de rede a redes neurais treinadas adversariamente. Eles ficaram surpresos ao descobrir que o treinamento adversarial faz com que as redes neurais no domínio da visão computacional converjam para representações de dados semelhantes, independentemente da arquitetura da rede, à medida que a magnitude do ataque aumenta.
“Descobrimos que, quando treinamos redes neurais para serem robustas contra ataques adversariais, elas começam a fazer as mesmas coisas,” disse Jones.
Isso não é a primeira vez que os especialistas procuraram encontrar a arquitetura perfeita para redes neurais. No entanto, as novas descobertas demonstram que a introdução do treinamento adversarial fecha a lacuna substancialmente, o que significa que a comunidade de pesquisa em IA pode não precisar explorar tantas novas arquiteturas, pois agora se sabe que o treinamento adversarial faz com que arquiteturas diversificadas converjam para soluções semelhantes.
“Ao descobrir que as redes neurais robustas são semelhantes entre si, estamos tornando mais fácil entender como a IA robusta pode realmente funcionar,” disse Jones. “Talvez até estejamos descobrindo dicas sobre como a percepção ocorre em humanos e outros animais.”










