Contáctenos

Investigadores de IA desarrollan un método rápido para calcular los intervalos de confianza e informar cuándo no se debe confiar en el modelo

Inteligencia Artificial

Investigadores de IA desarrollan un método rápido para calcular los intervalos de confianza e informar cuándo no se debe confiar en el modelo

mm

Investigadores del MIT Ha recientemente desarrolló una técnica que permite que los modelos de red de aprendizaje profundo calculen rápidamente los niveles de confianza, lo que podría ayudar a los científicos de datos y otros usuarios de IA a saber cuándo confiar en las predicciones que genera un modelo.

Los sistemas de inteligencia artificial basados ​​en redes neuronales artificiales son responsables de cada vez más decisiones en la actualidad, incluidas muchas decisiones que involucran la salud y la seguridad de las personas. Debido a esto, las redes neuronales deberían tener algún método para estimar la confianza en sus resultados, lo que permitiría a los científicos de datos determinar cuán confiables son sus predicciones. Recientemente, un equipo de investigadores de Harvard y el MIT diseñó una forma rápida para que las redes neuronales generen una indicación de la confianza de un modelo junto con sus predicciones.

Los modelos de aprendizaje profundo se han vuelto cada vez más sofisticados durante la última década y ahora pueden superar fácilmente a los humanos en tareas de clasificación de datos. Los modelos de aprendizaje profundo se están utilizando en campos donde la salud y la seguridad de las personas pueden estar en riesgo si fallan, conduciendo vehículos autónomos y diagnosticando condiciones médicas a partir de escaneos. En estos casos, no es suficiente que un modelo sea 99% preciso, el 1% de veces que el modelo falla tiene el potencial de conducir a una catástrofe. Como resultado, debe haber una forma en que los científicos de datos puedan determinar qué tan confiable es una predicción determinada.

Hay varias formas de generar un intervalo de confianza junto con las predicciones de las redes neuronales, pero los métodos tradicionales para estimar la incertidumbre de una red neuronal son bastante lentos y computacionalmente costosos. Las redes neuronales pueden ser increíblemente grandes y complejas, llenas de miles de millones de parámetros. El simple hecho de generar predicciones puede resultar costoso desde el punto de vista computacional y llevar una cantidad considerable de tiempo, y generar un nivel de confianza para las predicciones lleva aún más tiempo. La mayoría de los métodos anteriores para cuantificar la incertidumbre se han basado en el muestreo o la ejecución de una red una y otra vez para obtener una estimación de su confianza. Esto no siempre es factible para aplicaciones que requieren tráfico de alta velocidad.

Según lo informado por MIT News, Alexander Amini lidera el grupo combinado de investigadores del MIT y Harvard, y según Amini, el método desarrollado por sus investigadores acelera el proceso de generar estimaciones de incertidumbre utilizando una técnica llamada "regresión evidencial profunda". Amini explicó a través del MIT que los científicos de datos requieren modelos de alta velocidad y estimaciones confiables de incertidumbre para poder discernir modelos no confiables. Para preservar tanto la velocidad del modelo como generar una estimación de la incertidumbre, los investigadores diseñaron una forma de estimar la incertidumbre a partir de una sola ejecución del modelo.

Los investigadores diseñaron el modelo de red neuronal de tal manera que se generó una distribución probabilística junto con cada decisión. La red se aferra a la evidencia de sus decisiones durante el proceso de entrenamiento, generando una distribución de probabilidad basada en la evidencia. La distribución evidencial representa la confianza del modelo y representa la incertidumbre tanto para la decisión final del modelo como para los datos de entrada originales. Es importante capturar la incertidumbre tanto para los datos de entrada como para las decisiones, ya que reducir la incertidumbre depende de conocer la fuente de la incertidumbre.

Los investigadores probaron su técnica de estimación de incertidumbre aplicándola a una tarea de visión artificial. Tras entrenar el modelo con una serie de imágenes, generó predicciones y estimaciones de incertidumbre. La red proyectó correctamente una alta incertidumbre en los casos en que se realizó una predicción errónea. "Estaba muy calibrada para los errores que comete la red, lo cual creemos que fue uno de los aspectos más importantes para evaluar la calidad de un nuevo estimador de incertidumbre", afirmó Amini respecto a los resultados de la prueba del modelo.

El equipo de investigación pasó a realizar más pruebas con su arquitectura de red. Para probar la técnica, también probaron los datos en datos "fuera de distribución", conjuntos de datos compuestos por objetos que la red nunca había visto antes. Como era de esperar, la red informó una mayor incertidumbre para estos objetos invisibles. Cuando se entrenó en ambientes interiores, la red mostró una gran incertidumbre cuando se probó en imágenes de ambientes exteriores. Las pruebas mostraron que la red podía resaltar cuándo sus decisiones estaban sujetas a una alta incertidumbre y no se debía confiar en ciertas circunstancias de alto riesgo.

El equipo de investigación incluso informó que la red podía discernir cuándo se habían manipulado las imágenes. Cuando el equipo de investigación alteró fotos con ruido adversario, la red etiquetó las imágenes recién alteradas con estimaciones de alta incertidumbre, a pesar de que el efecto era demasiado sutil para ser visto por el observador humano promedio.

Si la técnica resulta confiable, la regresión evidencial profunda podría mejorar la seguridad de los modelos de IA en general. Según Amini, la regresión evidencial profunda podría ayudar a las personas a tomar decisiones cuidadosas al usar modelos de IA en situaciones de riesgo. Como explicó Amini a través de MIT News:

Estamos empezando a ver cómo muchos de estos modelos [de redes neuronales] salen del laboratorio de investigación y se aplican al mundo real, en situaciones que afectan a las personas con consecuencias potencialmente mortales. Cualquier usuario del método, ya sea un médico o un pasajero de un vehículo, debe ser consciente de cualquier riesgo o incertidumbre asociada a esa decisión.

Blogger y programador con especialidades en Aprendizaje automático y Aprendizaje profundo temas Daniel espera ayudar a otros a usar el poder de la IA para el bien social.