Connect with us

Equipo de investigación busca crear Inteligencia Artificial explicativa para la no proliferación nuclear y la seguridad nuclear

Inteligencia artificial

Equipo de investigación busca crear Inteligencia Artificial explicativa para la no proliferación nuclear y la seguridad nuclear

mm

Investigadores del Laboratorio Nacional del Noroeste del Pacífico (PNNL) están tratando de hacer que la Inteligencia Artificial sea explicativa para los fines de la no proliferación nuclear y la seguridad nacional. El objetivo es hacer que las decisiones devueltas por los modelos de Inteligencia Artificial sean transparentes para cualquier decisión que involucre la seguridad nuclear.

Se está prestando más atención que nunca a la importancia de los modelos de Inteligencia Artificial explicativa, en un esfuerzo por resolver el problema de la “caja negra” del aprendizaje automático. Los modelos de Inteligencia Artificial a menudo se confían para tomar decisiones complejas incluso cuando aquellos responsables de ejecutar esas decisiones no entienden la razón detrás de esas decisiones. Cuanto mayor es el potencial de catástrofe y peligro en el que se toman esas decisiones, más importante es que la razón detrás de esas decisiones sea transparente.

Es posible que no sea necesario entender la razón detrás de las clasificaciones si una aplicación de Inteligencia Artificial está haciendo algo tan simple como categorizar imágenes de frutas, pero para casos que involucran armas nucleares o la producción de material nuclear, es mejor abrir la caja negra subyacente a la Inteligencia Artificial empleada en estos escenarios.

Los científicos de PNNL están trabajando para hacer que la Inteligencia Artificial sea explicativa utilizando una variedad de nuevas técnicas. Estos investigadores están trabajando junto con la Oficina de Investigación y Desarrollo de No Proliferación Nuclear de Defensa de la Administración Nacional de Seguridad Nuclear (NNSA) del Departamento de Energía. La Oficina de Investigación y Desarrollo de No Proliferación Nuclear de Defensa es responsable de la supervisión de la capacidad de los Estados Unidos para monitorear y detectar la producción de material nuclear, el desarrollo de armas nucleares y la detonación de armas nucleares en todo el mundo.

Dado lo alto que son los riesgos cuando se trata de cuestiones relacionadas con la no proliferación nuclear, es crucial saber cómo un sistema de Inteligencia Artificial llega a sus conclusiones sobre estas cuestiones. Angie Sheffield es una gerente de programa senior en la Oficina de Investigación y Desarrollo de No Proliferación Nuclear de Defensa. Según Sheffield, a menudo puede ser difícil incorporar nuevas tecnologías como los modelos de Inteligencia Artificial en las técnicas y marcos científicos tradicionales, pero el proceso de incorporar la Inteligencia Artificial en estos sistemas se puede facilitar diseñando nuevas formas de interactuar de manera más efectiva con estos sistemas. Sheffield argumenta que los investigadores deben crear herramientas que permitan a los desarrolladores entender cómo operan estas técnicas sofisticadas.

La relativa escasez de datos que involucran explosiones nucleares y el desarrollo de armas nucleares significa que la Inteligencia Artificial explicativa es aún más importante. El entrenamiento de modelos de Inteligencia Artificial en este espacio da como resultado modelos que pueden ser menos confiables gracias a la cantidad relativamente pequeña de datos que hay en comparación con una tarea como el reconocimiento facial. Como resultado, cada paso del proceso utilizado por el modelo para tomar una decisión debe ser inspeccionable.

Mark Greaves, un investigador en PNNL, explicó que los riesgos inherentes a la proliferación nuclear exigen un sistema que pueda informar a las personas sobre por qué se ha seleccionado una respuesta determinada.

Como explicó Greaves a través de EurekaAlert:

“Si un sistema de Inteligencia Artificial produce una probabilidad errónea sobre si una nación posee un arma nuclear, ese es un problema de una escala completamente diferente. Por lo tanto, nuestro sistema debe producir al menos explicaciones para que los humanos puedan verificar sus conclusiones y utilizar su propia experiencia para corregir las brechas de capacitación de la Inteligencia Artificial causadas por la escasez de datos”.

Como explicó Sheffield, PNNL tiene dos fortalezas que les ayudarán a resolver este problema. Primero, PNNL tiene una experiencia sustancial en el campo de la Inteligencia Artificial. Además, el equipo tiene un conocimiento significativo del dominio cuando se trata de materiales y armas nucleares. El equipo de PNNL entiende cuestiones como el procesamiento de plutonio y los tipos de señales únicas del desarrollo de armas nucleares. La combinación de experiencia en Inteligencia Artificial, experiencia en seguridad nacional y conocimiento del dominio nuclear significa que PNNL está únicamente equipado para manejar cuestiones de seguridad nuclear nacional y Inteligencia Artificial.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.