talón Google ha prohibido la formación de Deepfakes en Colab - Unite.AI
Contáctanos

Inteligencia artificial

Google ha prohibido la formación de Deepfakes en Colab

mm
Actualizado on

En algún momento de las últimas dos semanas, Google cambió silenciosamente los términos de servicio para sus usuarios de Colab, agregando una estipulación de que los servicios de Colab ya no pueden usarse para entrenar deepfakes.

La actualización de mayo trae una prohibición de deepfake a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La actualización de mayo trae una prohibición de deepfake a Colab. Fuente: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La primera versión archivada en la web de Internet Archive que presenta la prohibición de deepfake fue capturado El pasado martes 24 de mayo. La última versión capturada de las preguntas frecuentes de Colab que no no mencionar que la prohibición estaba en el 14th mayo.

De las dos distribuciones populares de creación de deepfake, ProfundoFaceLab (DFL) y Intercambio cara, los cuales son bifurcaciones del controvertido y anónimo código publicado en Reddit en 2017, solo cuanto más notorio DFL parece haber sido objeto directo de la prohibición. Según el desarrollador de deepfake 'chervonij' en DFL Discord, ahora se está ejecutando el software en Google Colab produce una advertencia:

'Es posible que esté ejecutando un código que no está permitido, y esto puede restringir su capacidad para usar Colab en el futuro. Tenga en cuenta las acciones prohibidas especificadas en nuestras preguntas frecuentes.'

Sin embargo, curiosamente, actualmente el usuario puede continuar con la ejecución del código.

La nueva advertencia que recibió a los deepfakers de DFL que intentaban ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

La nueva advertencia que recibió a los deepfakers de DFL que intentaban ejecutar el código en Google Colab. Fuente: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Según un usuario en Discord para la distribución rival FaceSwap, el código de ese proyecto aparentemente aún no activa la advertencia, lo que sugiere que el código para DeepFaceLab (también la arquitectura de alimentación para la implementación de transmisión de deepfake en tiempo real cara profunda en vivo), con mucho el método de falsificación profunda más dominante, ha sido el objetivo específico de Colab.

Matt Tora, co-desarrollador líder de FaceSwap, comentó*:

"Me parece muy poco probable que Google esté haciendo esto por razones éticas particulares, más que la razón de ser de Colab es que los estudiantes/científicos de datos/investigadores puedan ejecutar código GPU computacionalmente costoso de una manera fácil y accesible, libre de cargar. Sin embargo, sospecho que una cantidad no insignificante de usuarios está explotando este recurso para crear modelos falsos profundos, a escala, lo que es costoso desde el punto de vista computacional y requiere una cantidad no despreciable de tiempo de entrenamiento para producir resultados.

'Se podría decir que Colab se inclina más hacia el lado educativo y de investigación de la IA. Ejecutar scripts que requieren poca intervención del usuario, ni comprensión, tiende a ir en contra de esto. En Faceswap tratamos de centrarnos en educar al usuario en IA y los mecanismos involucrados, al mismo tiempo que reducimos la barrera de entrada. Alentamos mucho el uso ético del software y creemos que poner este tipo de herramientas a disposición de un público más amplio ayuda a educar a las personas en términos de lo que se puede lograr en el mundo actual, en lugar de mantenerlo oculto para unos pocos elegidos.

'Desafortunadamente, no podemos controlar cómo se utilizan nuestras herramientas en última instancia, ni dónde se ejecutan. Me entristece que se haya cerrado una vía para que las personas experimenten con nuestro código, sin embargo, en términos de proteger este recurso en particular para garantizar su disponibilidad para el público objetivo real, lo encuentro comprensible.'

No hay evidencia de que la nueva restricción se limite solo al nivel gratuito de Google Colab: al final de la lista de actividades prohibidas a las que ahora se han agregado deepfakes, está la nota 'Existen restricciones adicionales para usuarios pagos', indicando que se trata de normas de base. Con respecto a la prohibición de deepfakes, esto ha confundido a algunos, ya que 'minería de criptomonedas' y 'participar en el intercambio de archivos entre pares' se incluyen tanto en la sección gratuita como en la profesional 'Restricciones'.

Por esa lógica, todo lo prohibido en la sección gratuita 'Restricciones' está permitido en la versión Pro, siempre que la versión Pro no lo prohíba explícitamente, incluido 'ejecutar ataques de denegación de servicio'y 'descifrado de contraseñas'. Las restricciones adicionales para el nivel Pro tienen que ver principalmente con no 'subarrendar' el acceso a Pro Colab, a pesar de las confusas y selectivas prohibiciones duplicadas.

Google Colab es una implementación dedicada de Cuaderno Jupyter entornos, que permiten la capacitación remota de proyectos de aprendizaje automático en GPU mucho más potentes de lo que muchos usuarios pueden permitirse.

Dado que el entrenamiento de deepfake es una actividad ávida de VRAM, y desde el advenimiento de la hambruna de GPU, muchos deepfakers en los últimos años han evitado el entrenamiento en el hogar a favor del entrenamiento remoto en Colab, donde es posible, dependiendo de la oportunidad y el nivel, entrenar un deepfake modelo en cartas poderosas como la tesla t4 (16GB VRAM, actualmente alrededor de $2k USD), el V100 (32GB VRAM, alrededor de $4k USD), y el poderoso A100 (80GB VRAM, valor sugerido del mercado de $32,097.00), entre otros.

Parece probable que la prohibición del entrenamiento de Colab reduzca el grupo de deepfakers capaces de entrenar modelos de mayor resolución, donde las imágenes de entrada y salida son más grandes, más adecuadas para resultados de alta resolución y capaces de extraer y reproducir mayor detalle facial.

Algunos de los aficionados y entusiastas del deepfake más comprometidos, según Discord y las publicaciones del foro, han invertido mucho en hardware local durante los últimos años, a pesar de los altos precios de las GPU.

Sin embargo, dados los altos costos involucrados, han surgido subcomunidades para enfrentar los desafíos de entrenar deepfakes en Colabs, y la asignación aleatoria de GPU es la queja más común, ya que Colab limitó el uso de GPU de gama alta a los usuarios gratuitos.

 

* En mensajes privados en Discord

Publicado por primera vez el 28 de mayo de 2022.
Revisado a las 7:28 a. m. EST, corrección del error tipográfico de la cotización.
Revisado a las 12:40 p.