Connect with us

Google Ha Prohibido el Entrenamiento de Deepfakes en Colab

Inteligencia artificial

Google Ha Prohibido el Entrenamiento de Deepfakes en Colab

mm

En algún momento de las últimas dos semanas, Google ha cambiado silenciosamente los términos de servicio para sus usuarios de Colab, agregando una estipulación que establece que los servicios de Colab ya no pueden utilizarse para entrenar deepfakes.

La actualización de mayo trae una prohibición de deepfakes a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La actualización de mayo trae una prohibición de deepfakes a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La primera versión archivada en la web desde el Internet Archive que presenta la prohibición de deepfakes fue capturada el martes pasado, el 24 de mayo. La última versión capturada de la FAQ de Colab que no menciona la prohibición fue el 14 de mayo.

De las dos distribuciones populares de creación de deepfakes, DeepFaceLab (DFL) y FaceSwap, ambas son bifurcaciones del controvertido y anónimo código publicado en Reddit en 2017, solo la más notoria DFL parece haber sido directamente objetivo de la prohibición. Según el desarrollador de deepfakes ‘chervonij’ en el Discord de DFL, ejecutar el software en Google Colab ahora produce una advertencia:

‘Es posible que esté ejecutando código que no está permitido, y esto puede restringir su capacidad para utilizar Colab en el futuro. Tenga en cuenta las acciones prohibidas especificadas en nuestra FAQ.’

Sin embargo, interesantemente, al usuario se le permite continuar con la ejecución del código.

La nueva advertencia que saludó a los creadores de deepfakes de DFL que intentaron ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

La nueva advertencia que saludó a los creadores de deepfakes de DFL que intentaron ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Según un usuario en el Discord de la distribución rival FaceSwap, el código de ese proyecto aparentemente no desencadena la advertencia, lo que sugiere que el código para DeepFaceLab (también la arquitectura de alimentación para la implementación de transmisión de deepfakes en tiempo real DeepFaceLive), por mucho el método de deepfakes más dominante, ha sido específicamente objetivo de Colab.

El co-líder de desarrollo de FaceSwap, Matt Tora, comentó*:

‘Me parece muy improbable que Google esté haciendo esto por alguna razón ética en particular, más que Colab tiene como objetivo permitir que los estudiantes/científicos de datos/investigadores puedan ejecutar código de GPU computacionalmente costoso de manera fácil y accesible, sin cargo. Sin embargo, sospecho que una cantidad no insignificante de usuarios están explotando este recurso para crear modelos de deepfakes, a gran escala, lo que es computacionalmente costoso y requiere un tiempo de entrenamiento no insignificante para producir resultados.’

‘Podrías decir que Colab se inclina más hacia el lado educativo, de investigación de la IA. Ejecutar scripts que requieren poca entrada de usuario, ni comprensión, tiende a ir en contra de esto. En FaceSwap nos esforzamos por enfocarnos en educar al usuario en IA y los mecanismos involucrados, mientras que reducimos la barrera de entrada. Nosotros muy mucho alentamos el uso ético del software y sentimos que hacer que estas herramientas estén disponibles para una audiencia más amplia ayuda a educar a las personas en términos de lo que es alcanzable en el mundo de hoy, en lugar de mantenerlo oculto para unos pocos seleccionados.’

‘Desafortunadamente, no podemos controlar cómo se utilizan nuestras herramientas en última instancia, ni dónde se ejecutan. Me entristece que se haya cerrado una vía para que las personas experimenten con nuestro código, sin embargo, en términos de proteger este recurso particular para asegurar su disponibilidad para la audiencia objetivo real, lo encuentro comprensible.’

No hay evidencia de que la nueva restricción esté limitada solo a la versión gratuita de Google Colab – al final de la lista de actividades prohibidas a las que se han agregado los deepfakes, hay una nota que establece ‘Existen restricciones adicionales para los usuarios pagados’, lo que indica que estas son regulaciones básicas. En cuanto a la prohibición de deepfakes, esto ha confundido a algunos, ya que ‘minería de criptomonedas’ y ‘participación en intercambio de archivos peer-to-peer’ se incluyen en ambas secciones de ‘Restricciones’ gratuitas y pro.

Según esta lógica, todo lo prohibido en la sección de ‘Restricciones’ gratuita está permitido en la versión Pro, siempre y cuando la versión Pro no lo prohíba explícitamente, incluyendo ‘ejecutar ataques de denegación de servicio’ y ‘crackear contraseñas’. Las restricciones adicionales para la capa Pro se ocupan principalmente de no ‘subarrendar’ el acceso a Colab Pro, a pesar de las prohibiciones duplicadas confusas y selectivas.

Google Colab es una implementación dedicada de entornos de Jupyter notebook, que permiten el entrenamiento remoto de proyectos de aprendizaje automático en GPUs mucho más potentes de las que muchos usuarios pueden permitirse.

Dado que el entrenamiento de deepfakes es una búsqueda hambrienta de VRAM, y desde el advenimiento de la hambruna de GPU, muchos deepfakers en los últimos años han abandonado el entrenamiento en casa en favor del entrenamiento remoto en Colab, donde es posible, dependiendo de la suerte y la capa, entrenar un modelo de deepfake en tarjetas poderosas como la Tesla T4 (16GB VRAM, actualmente alrededor de $2k USD), la V100 (32GB VRAM, alrededor de $4k USD), y la poderosa A100 (80GB VRAM, MSRP de $32,097.00), entre otros.

La prohibición del entrenamiento en Colab parece probable que reduzca la piscina de deepfakers capaces de entrenar modelos de mayor resolución, donde las imágenes de entrada y salida son más grandes, más adecuadas para resultados de alta resolución, y capaces de extraer y reproducir más detalles faciales.

Algunos de los entusiastas y aficionados a los deepfakes más comprometidos, según publicaciones en Discord y foros, han invertido mucho en hardware local en los últimos dos años, a pesar de los altos precios de las GPUs.

Sin embargo, dado los altos costos involucrados, han surgido subcomunidades para hacer frente a los desafíos de entrenar deepfakes en Colabs, con la asignación aleatoria de GPU como la queja más común desde que Colab limitó el uso de GPUs de alto rendimiento a usuarios gratuitos.

 

* En mensajes privados en Discord

Publicado por primera vez el 28 de mayo de 2022.
Revisado 7:28 AM EST, corrección de error de cita.
Revisado 12:40pm EST – se agregó aclaración con respecto a la prohibición de deepfakes en las capas gratuita y pro, según se puede entender de las listas de prohibiciones ‘gratuita’ y ‘pro’.

Escritor sobre aprendizaje automático, especialista en síntesis de imágenes humanas. Anterior jefe de contenido de investigación en Metaphysic.ai.