talón Las suposiciones comunes sobre las fallas de aprendizaje automático podrían ser incorrectas - Unite.AI
Contáctanos

Inteligencia artificial

Las suposiciones comunes sobre las fallas de aprendizaje automático podrían ser incorrectas

Actualizado on

Las redes neuronales profundas son uno de los aspectos más fundamentales de la inteligencia artificial (IA), ya que se utilizan para procesar imágenes y datos a través de modelos matemáticos. Son responsables de algunos de los mayores avances en el campo, pero también funcionan mal de varias maneras. Estas fallas pueden tener un impacto pequeño o inexistente, como una simple identificación errónea, o uno más dramático y mortal, como una falla en la conducción autónoma.

Una nueva investigación de la Universidad de Houston sugiere que nuestras suposiciones comunes sobre estas fallas pueden ser incorrectas, lo que podría ayudar a evaluar la confiabilidad de las redes en el futuro.

El artículo fue publicado en Nature Machine Intelligence en noviembre.

“Ejemplos contradictorios”

El aprendizaje automático y otros tipos de IA son cruciales en muchos sectores y tareas, como la banca y los sistemas de ciberseguridad. Según Cameron Buckner, profesor asociado de filosofía en la UH, debe haber una comprensión de los fracasos provocados por "ejemplos contradictorios". Estos ejemplos contradictorios ocurren cuando un sistema de red neuronal profunda juzga mal las imágenes y otros datos cuando encuentra información fuera de las entradas de entrenamiento que se utilizaron para desarrollar la red.

Los ejemplos contradictorios son raros ya que muchas veces son creados o descubiertos por otra red de aprendizaje automático.

“Algunos de estos eventos adversarios podrían ser artefactos, y necesitamos saber mejor qué son para saber qué tan confiables son estas redes”, escribió Buckner.

Buckner dice que el mal funcionamiento podría deberse a la interacción entre los patrones reales involucrados y lo que la red se propone procesar, lo que significa que no es un error total.

Patrones como artefactos

“Comprender las implicaciones de los ejemplos contradictorios requiere explorar una tercera posibilidad: que al menos algunos de estos patrones sean artefactos”, dijo Buckner. “Por lo tanto, en la actualidad existen costos en simplemente descartar estos patrones y peligros en usarlos ingenuamente”.

Aunque no es el caso todo el tiempo, la mala conducta intencional es el riesgo más alto con respecto a estos eventos adversarios que causan fallas en el aprendizaje automático.

“Significa que los actores malintencionados podrían engañar a los sistemas que dependen de una red que de otro modo sería confiable”, dijo Buckner. "Eso tiene aplicaciones de seguridad".

Esto podría ser piratas informáticos que violan un sistema de seguridad basado en tecnología de reconocimiento facial o señales de tráfico mal etiquetadas para confundir a los vehículos autónomos.

Otra investigación previa ha demostrado que algunos de los ejemplos contradictorios ocurren naturalmente, cuando un sistema de aprendizaje automático malinterpreta los datos a través de una interacción no anticipada, que es diferente a los errores en los datos. Estos ejemplos naturales son raros y la única forma actual de descubrirlos es a través de la IA.

Sin embargo, Buckner dice que los investigadores deben repensar las formas en que abordan las anomalías.

Buckner explica estas anomalías, o artefactos, a través de la analogía de un destello de lente en una fotografía, que no es causado por un defecto en la lente de la cámara sino por la interacción de la luz con la cámara.

Si uno sabe cómo interpretar el estilo de la lente, se puede extraer información importante como la ubicación del sol. Debido a esto, Buckner cree que es posible extraer información igualmente valiosa de los eventos adversos en el aprendizaje automático causados ​​por el artefacto.

Buckner también dice que todo esto no significa automáticamente que el aprendizaje profundo no sea válido.

“Algunos de estos eventos de confrontación podrían ser artefactos”, dijo. "Tenemos que saber cuáles son estos artefactos para saber qué tan confiables son las redes".

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.