Connect with us

Expertos en IA clasifican a Deepfakes y otros 19 delitos basados en IA por nivel de peligro

Inteligencia artificial

Expertos en IA clasifican a Deepfakes y otros 19 delitos basados en IA por nivel de peligro

mm

Un nuevo informe publicado por University College London tenía como objetivo identificar las diversas formas en que la IA podría potencialmente ayudar a los delincuentes en los próximos 15 años. El informe contó con la participación de 31 expertos en IA que evaluaron 20 métodos diferentes de uso de la IA para cometer delitos y los clasificaron según varios factores. Los expertos en IA clasificaron los delitos según variables como la facilidad con la que se podría cometer el delito, el daño social potencial que el delito podría causar, la cantidad de dinero que un delincuente podría ganar y la dificultad para detener el delito. Según los resultados del informe, Deepfakes representan la mayor amenaza para los ciudadanos y la sociedad en general, ya que su potencial para ser explotados por delincuentes y terroristas es alto.

Los expertos en IA clasificaron a Deepfakes en el primer lugar de la lista de amenazas potenciales de la IA porque son difíciles de identificar y contrarrestar. Deepfakes están mejorando constantemente para engañar incluso a los ojos de los expertos en Deepfakes y otros métodos de detección de Deepfakes basados en la IA a menudo son poco fiables. En términos de su capacidad para causar daño, Deepfakes se pueden utilizar fácilmente por actores maliciosos para desacreditar a figuras confiables y expertas o para intentar estafar a las personas haciéndose pasar por seres queridos u otras personas de confianza. Si Deepfakes son abundantes, las personas podrían comenzar a perder la confianza en cualquier medio de audio o video, lo que podría hacer que pierdan la fe en la validez de los eventos y hechos reales.

El Dr. Matthew Caldwell, del Departamento de Ciencias de la Computación de UCL, fue el primer autor del artículo. Caldwell subraya el creciente peligro de Deepfakes a medida que más y más de nuestra actividad se traslada en línea. Como se citó a Caldwell en UCL News:

“Al contrario que muchos delitos tradicionales, los delitos en el ámbito digital se pueden compartir, repetir y incluso vender fácilmente, lo que permite que las técnicas delictivas se comercialicen y que el delito se proporcione como un servicio. Esto significa que los delincuentes pueden ser capaces de subcontratar los aspectos más desafiantes de su delito basado en la IA”.

El equipo de expertos clasificó cinco otras tecnologías de IA emergentes como posibles catalizadores de nuevos tipos de delitos: vehículos autónomos utilizados como armas, ataques de piratería en sistemas y dispositivos controlados por la IA, recopilación de datos en línea con fines de chantaje, phishing basado en la IA con mensajes personalizados y noticias falsas/desinformación en general.

Según Shane Johnson, el Director del Centro Dawes para Delitos Futuros en UCL, el objetivo del estudio fue identificar posibles amenazas asociadas con tecnologías emergentes y hipotetizar formas de anticiparse a estas amenazas. Johnson afirma que a medida que aumenta la velocidad del cambio tecnológico, es imperativo que “anticipemos las amenazas delictivas futuras para que los responsables de las políticas y otros interesados con la competencia para actuar puedan hacerlo antes de que ocurran nuevos ‘cosechas de delitos’”.

En cuanto a los catorce delitos posibles restantes de la lista, se clasificaron en una de dos categorías: preocupación moderada y baja preocupación.

Los delitos de IA que causan preocupación moderada incluyen el mal uso de robots militares, envenenamiento de datos, drones de ataque automatizados, ciberataques basados en el aprendizaje, ataques de denegación de servicio para actividades en línea, manipulación de mercados financieros/bursátiles, venta de servicios fraudulentos disfrazados de terminología de IA/ML y engaño de reconocimiento facial.

Los delitos de IA de baja preocupación incluyen la falsificación de arte o música, acoso asistido por IA, reseñas falsas escritas por IA, evasión de métodos de detección de IA y “bots de ladrones” (bots que entran en las casas de las personas para robar cosas).

Por supuesto, los modelos de IA en sí pueden utilizarse para ayudar a combatir algunos de estos delitos. Recientemente, se han desplegado modelos de IA para ayudar en la detección de esquemas de lavado de dinero, detectando transacciones financieras sospechosas. Los resultados se analizan con operadores humanos que luego aprueban o rechazan la alerta, y la retroalimentación se utiliza para mejorar el modelo. Parece probable que el futuro involucre a las IA enfrentándose entre sí, con delincuentes que intentan diseñar sus mejores herramientas asistidas por IA y seguridad, aplicación de la ley y otros diseñadores de IA éticos que intentan diseñar sus propios mejores sistemas de IA.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.