Contáctenos

Google ha prohibido la formación de Deepfakes en Colab

Inteligencia Artificial

Google ha prohibido la formación de Deepfakes en Colab

mm

En algún momento de las últimas dos semanas, Google cambió silenciosamente los términos de servicio para sus usuarios de Colab, agregando una estipulación de que los servicios de Colab ya no pueden usarse para entrenar deepfakes.

La actualización de mayo trae una prohibición de deepfake a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La actualización de mayo trae una prohibición de deepfake a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La primera versión archivada en la web de Internet Archive que presenta la prohibición de deepfake fue capturado El pasado martes 24 de mayo. La última versión capturada de las preguntas frecuentes de Colab que no no mencionar que la prohibición estaba en el 14th mayo.

De las dos distribuciones populares de creación de deepfake, ProfundoFaceLab (DFL) y Intercambio cara, los cuales son bifurcaciones del controvertido y anónimo código publicado en Reddit en 2017, solo cuanto más notorio La prohibición parece haber afectado directamente a la DFL. Según el desarrollador de deepfakes 'chervonij' en el Discord de la DFL, el software que se está ejecutando en Google Colab... produce una advertencia:

Es posible que esté ejecutando código no permitido, lo que podría restringir su uso de Colab en el futuro. Tenga en cuenta las acciones prohibidas que se especifican en nuestras preguntas frecuentes.

Sin embargo, curiosamente, actualmente el usuario puede continuar con la ejecución del código.

La nueva advertencia que recibió a los deepfakers de DFL que intentaban ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

La nueva advertencia que recibió a los deepfakers de DFL que intentaban ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Según un usuario en Discord de la distribución rival FaceSwap, el código de ese proyecto aparentemente aún no activa la advertencia, lo que sugiere que el código para DeepFaceLab (también la arquitectura de alimentación para la implementación de transmisión deepfake en tiempo real) cara profunda en vivo), con mucho el método de falsificación profunda más dominante, ha sido el objetivo específico de Colab.

Matt Tora, co-desarrollador líder de FaceSwap, comentó*:

Me parece muy improbable que Google esté haciendo esto por razones éticas específicas, sino porque la razón de ser de Colab es que estudiantes, científicos de datos e investigadores puedan ejecutar código de GPU, que requiere un alto coste computacional, de forma fácil, accesible y gratuita. Sin embargo, sospecho que un número considerable de usuarios está explotando este recurso para crear modelos deepfake a gran escala, lo cual es costoso computacionalmente y requiere un tiempo de entrenamiento considerable para obtener resultados.

Podría decirse que Colab se inclina más hacia el aspecto educativo y de investigación de la IA. Ejecutar scripts que requieren poca intervención del usuario, o poca comprensión, tiende a ir en contra de esto. En Faceswap, nos centramos en educar al usuario sobre la IA y sus mecanismos, a la vez que reducimos las barreras de entrada. Promovemos el uso ético del software y creemos que poner este tipo de herramientas a disposición de un público más amplio ayuda a educar a la gente sobre lo que se puede lograr en el mundo actual, en lugar de mantenerlo oculto para unos pocos.

Lamentablemente, no podemos controlar cómo se utilizan nuestras herramientas ni dónde se ejecutan. Me entristece que se haya cerrado una vía para que la gente experimente con nuestro código; sin embargo, en cuanto a la protección de este recurso en particular para garantizar su disponibilidad para el público objetivo real, lo considero comprensible.

No hay evidencia de que la nueva restricción se limite solo al nivel gratuito de Google Colab: al final de la lista de actividades prohibidas a las que ahora se han agregado deepfakes, está la nota 'Existen restricciones adicionales para los usuarios pagos', indicando que se trata de normas de base. Con respecto a la prohibición de deepfakes, esto ha confundido a algunos, ya que 'minería de criptomonedas' y 'participar en el intercambio de archivos entre pares' están incluidos tanto en la sección 'Restricciones' gratuita como en la pro.

Según esa lógica, todo lo que está prohibido en la sección gratuita 'Restricciones' está permitido en la versión Pro, siempre que la versión Pro no lo prohíba explícitamente, incluyendo 'ejecutar ataques de denegación de servicio'y 'descifrado de contraseñas'Las restricciones adicionales para el nivel Pro se centran principalmente en no "subarrendar" el acceso Pro Colab, a pesar de las confusas y selectivas prohibiciones de duplicados.

Google Colab es una implementación dedicada de Cuaderno Jupyter entornos, que permiten la capacitación remota de proyectos de aprendizaje automático en GPU mucho más potentes de lo que muchos usuarios pueden permitirse.

Dado que el entrenamiento deepfake es una actividad que consume mucha VRAM, y desde la llegada de la hambruna de GPU, muchos deepfakers en los últimos años han evitado el entrenamiento en casa a favor del entrenamiento remoto en Colab, donde es posible, dependiendo de la probabilidad y el nivel, entrenar un modelo deepfake en tarjetas potentes como la tesla t4 (16GB VRAM, actualmente alrededor de $2k USD), el V100 (32GB VRAM, alrededor de $4k USD), y el poderoso A100 (80GB VRAM, valor sugerido del mercado de $32,097.00), entre otros.

Parece probable que la prohibición del entrenamiento de Colab reduzca el grupo de deepfakers capaces de entrenar modelos de mayor resolución, donde las imágenes de entrada y salida son más grandes, más adecuadas para resultados de alta resolución y capaces de extraer y reproducir mayor detalle facial.

Algunos de los aficionados y entusiastas del deepfake más comprometidos, según Discord y las publicaciones del foro, han invertido mucho en hardware local durante los últimos años, a pesar de los altos precios de las GPU.

Sin embargo, dados los altos costos involucrados, han surgido subcomunidades para enfrentar los desafíos de entrenar deepfakes en Colabs, y la asignación aleatoria de GPU es la queja más común, ya que Colab limitó el uso de GPU de gama alta a los usuarios gratuitos.

 

* En mensajes privados en Discord

Publicado por primera vez el 28 de mayo de 2022.
Revisado a las 7:28 a. m. EST, corrección del error tipográfico de la cotización.
Revisado a las 12:40 p. m. EST: se agregó una aclaración sobre las prohibiciones de deepfakes de nivel gratuito y profesional, como se puede entender mejor a partir de las listas de prohibiciones "gratuitas" y "profesionales".

Escritor sobre aprendizaje automático, especialista en síntesis de imágenes humanas. Exdirector de contenido de investigación en Metaphysic.ai.
sitio personal: martinanderson.ai
Contacto: [email protected]
Gorjeo: @manders_ai