Inteligencia artificial
Equipo Desarrolla Enfoque para Comparar Redes Neuronales

Un equipo de investigadores en el Laboratorio Nacional de Los Alamos ha desarrollado un enfoque novedoso para comparar redes neuronales. Según el equipo, este nuevo enfoque busca dentro de la “caja negra” de la inteligencia artificial (IA), y les ayuda a entender el comportamiento de las redes neuronales. Las redes neuronales, que reconocen patrones dentro de conjuntos de datos, se utilizan para una amplia gama de aplicaciones como sistemas de reconocimiento facial y vehículos autónomos.
El equipo presentó su artículo, “If You’ve Trained One You’ve Trained Them All: Inter-Architecture Similarity Increases With Robustness,” en la Conferencia sobre Incertidumbre en Inteligencia Artificial.
Haydn Jones es un investigador en el grupo de Investigación Avanzada en Sistemas Cibernéticos en Los Alamos y autor principal del artículo de investigación.
Mejor Comprensión de las Redes Neuronales
“La comunidad de investigación de inteligencia artificial no necesariamente tiene una comprensión completa de lo que las redes neuronales están haciendo; nos dan buenos resultados, pero no sabemos cómo o por qué,” dijo Jones. “Nuestro nuevo método hace un mejor trabajo al comparar las redes neuronales, lo que es un paso crucial hacia una mejor comprensión de las matemáticas detrás de la IA.
La nueva investigación también desempeñará un papel en ayudar a los expertos a entender el comportamiento de las redes neuronales robustas.
Si bien las redes neuronales tienen un alto rendimiento, también son frágiles. Los pequeños cambios en las condiciones, como un signo de stop parcialmente cubierto que está siendo procesado por un vehículo autónomo, pueden hacer que la red neuronal malidentifique el signo. Esto significa que es posible que nunca se detenga, lo que puede ser peligroso.
Entrenamiento Adversario de Redes Neuronales
Los investigadores se propusieron mejorar este tipo de redes neuronales buscando formas de mejorar la robustez de la red. Uno de los enfoques implica “atacar” las redes durante su proceso de entrenamiento, donde los investigadores introducen intencionalmente aberraciones mientras entrenan a la IA para que las ignore. El proceso, que se conoce como entrenamiento adversario, hace que sea más difícil que las redes sean engañadas.
El equipo aplicó la nueva métrica de similitud de red a redes neuronales entrenadas de manera adversaria. Se sorprendieron al encontrar que el entrenamiento adversario hace que las redes neuronales en el dominio de la visión por computadora converjan a representaciones de datos similares, independientemente de la arquitectura de la red, a medida que aumenta la magnitud del ataque.
“Encontramos que cuando entrenamos a las redes neuronales para que sean robustas contra ataques adversarios, comienzan a hacer las mismas cosas,” dijo Jones.
Esto no es la primera vez que los expertos han buscado encontrar la arquitectura perfecta para las redes neuronales. Sin embargo, los nuevos hallazgos demuestran que la introducción del entrenamiento adversario cierra la brecha de manera sustancial, lo que significa que la comunidad de investigación de IA puede que no necesite explorar tantas nuevas arquitecturas, ya que ahora se sabe que el entrenamiento adversario hace que las arquitecturas diversas converjan a soluciones similares.
“Al encontrar que las redes neuronales robustas son similares entre sí, estamos facilitando la comprensión de cómo podría funcionar realmente la IA robusta,” dijo Jones. “Incluso podemos estar descubriendo pistas sobre cómo se produce la percepción en humanos y otros animales.”










