Investigadores del Reino Unido y Canadá han ideado una serie de ataques adversarios de caja negra contra los sistemas de procesamiento del lenguaje natural (NLP) que son efectivos contra...
Atacar los sistemas de reconocimiento de imágenes con imágenes antagónicas cuidadosamente elaboradas se ha considerado una prueba de concepto divertida pero trivial durante los últimos cinco años. Sin embargo, una nueva investigación de Australia...
Una startup que cuenta con un consejo asesor de lumbreras militares del gobierno anterior ha lanzado una nueva plataforma diseñada para evaluar la seguridad y la capacidad de implementación de la IA...
Una nueva iniciativa de investigación ha producido un sistema de bajo costo capaz de identificar a una persona en función del sonido de sus pasos, desde tan solo un...
Un equipo de investigadores del MIT ha desarrollado un algoritmo de aprendizaje profundo destinado a ayudar a las IA a hacer frente a ejemplos "adversos", que pueden hacer que una IA haga...
A pesar de lo impresionantes que se han vuelto los algoritmos y sistemas de procesamiento de lenguaje natural en los últimos años, aún son vulnerables a un tipo de vulnerabilidad conocida como...