Ciberseguridad
La Inteligencia Artificial Explicable Puede Entregar Datos Confidenciales Más Fácilmente

Los investigadores de la Universidad Nacional de Singapur han concluido que cuanto más explicable se vuelve la inteligencia artificial, más fácil será eludir las características de privacidad vitales en los sistemas de aprendizaje automático. También encontraron que incluso cuando un modelo no es explicable, es posible utilizar explicaciones de modelos similares para ‘decodificar’ datos sensibles en el modelo no explicable.
La investigación, titulada Explotando Explicaciones para Ataques de Inversión de Modelos, destaca los riesgos de utilizar la ‘opacidad accidental’ de la forma en que funcionan las redes neuronales como si fuera una característica de seguridad de diseño – no menos porque una oleada de nuevas iniciativas globales, incluidas las regulaciones de inteligencia artificial del borrador de la Unión Europea, están caracterizando la inteligencia artificial explicable (XAI) como un requisito previo para la eventual normalización del aprendizaje automático en la sociedad.

En la investigación, se reconstruye con éxito una identidad real a partir de datos supuestamente anónimos relacionados con expresiones faciales, a través de la explotación de múltiples explicaciones del sistema de aprendizaje automático. Fuente: https://arxiv.org/pdf/2108.10800.pdf












