Entre em contato

Equipe desenvolve abordagem para comparar redes neurais

Inteligência artificial

Equipe desenvolve abordagem para comparar redes neurais

mm

Uma equipe de pesquisadores do Los Alamos National Laboratory desenvolveu uma nova abordagem para comparar redes neurais. Segundo a equipe, essa nova abordagem analisa a “caixa preta” da inteligência artificial (IA) e os ajuda a entender o comportamento da rede neural. As redes neurais, que reconhecem padrões em conjuntos de dados, são usadas para uma ampla gama de aplicações, como sistemas de reconhecimento facial e veículos autônomos. 

A equipe apresentou seu trabalho, “Se você treinou um, treinou todos: a semelhança entre arquiteturas aumenta com a robustez”, na Conferência sobre Incerteza em Inteligência Artificial. 

Haydn Jones é pesquisador do grupo de Pesquisa Avançada em Sistemas Cibernéticos em Los Alamos e principal autor do trabalho de pesquisa. 

Entendendo melhor as redes neurais 

“A comunidade de pesquisa em inteligência artificial não tem necessariamente um entendimento completo do que as redes neurais estão fazendo; eles nos dão bons resultados, mas não sabemos como ou por quê”, disse Jones. “Nosso novo método compara melhor as redes neurais, o que é um passo crucial para entender melhor a matemática por trás da IA. 

A nova pesquisa também desempenhará um papel em ajudar os especialistas a entender o comportamento de redes neurais robustas. 

Embora as redes neurais sejam de alto desempenho, elas também são frágeis. Pequenas mudanças nas condições, como um sinal de pare parcialmente coberto que está sendo processado por um veículo autônomo, podem fazer com que a rede neural identifique erroneamente o sinal. Isso significa que pode nunca parar, o que pode ser perigoso. 

Redes Neurais de Treinamento Adversário

Os pesquisadores decidiram melhorar esses tipos de redes neurais, procurando maneiras de melhorar a robustez da rede. Uma das abordagens envolve “atacar” redes durante seu processo de treinamento, onde os pesquisadores introduzem intencionalmente aberrações enquanto treinam a IA para ignorá-las. O processo, conhecido como treinamento adversário, torna mais difícil enganar as redes. 

A equipe aplicou a nova métrica de similaridade de rede a redes neurais treinadas de forma adversária. Eles ficaram surpresos ao descobrir que o treinamento adversário faz com que as redes neurais no domínio da visão computacional convirjam para representações de dados semelhantes, independentemente da arquitetura da rede, à medida que a magnitude do ataque aumenta. 

“Descobrimos que quando treinamos redes neurais para serem robustas contra ataques adversários, elas começam a fazer as mesmas coisas”, disse Jones. 

Esta não é a primeira vez que especialistas procuram encontrar a arquitetura perfeita para redes neurais. No entanto, as novas descobertas demonstram que a introdução do treinamento adversário fecha substancialmente a lacuna, o que significa que a comunidade de pesquisa de IA pode não precisar explorar tantas novas arquiteturas, pois agora se sabe que o treinamento adversário faz com que diversas arquiteturas converjam para soluções semelhantes. 

“Ao descobrir que redes neurais robustas são semelhantes entre si, estamos facilitando a compreensão de como a IA robusta pode realmente funcionar”, disse Jones. “Podemos até estar descobrindo pistas sobre como a percepção ocorre em humanos e outros animais.”

Alex McFarland é um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups e publicações de IA em todo o mundo.