talon Google a interdit la formation de Deepfakes dans Colab - Unite.AI
Suivez nous sur

Intelligence artificielle

Google a interdit la formation de Deepfakes dans Colab

mm
Le kit de préparation mis à jour on

Au cours des deux dernières semaines, Google a discrètement modifié les conditions d'utilisation de ses utilisateurs de Colab, ajoutant une stipulation selon laquelle les services de Colab ne peuvent plus être utilisés pour former des deepfakes.

La mise à jour de mai apporte une interdiction profonde de Colab. Source : https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La mise à jour de mai apporte une interdiction profonde de Colab. Source : https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La première version archivée sur le Web à partir d'Internet Archive qui présente l'interdiction de deepfake a été capturé mardi dernier, le 24 mai. La dernière version capturée de la FAQ Colab qui ne ne sauraient mentionner que l'interdiction concernait le 14th mai.

Parmi les deux distributions populaires de création de deepfake, Laboratoire DeepFace (DFL) et Échange de visage, qui sont tous deux des fourches du code controversé et anonyme publié sur Reddit en 2017., seulement plus célèbre DFL semble avoir été directement visé par l'interdiction. Selon le développeur deepfake 'chervonij' du DFL Discord, exécutant le logiciel dans Google Colab maintenant produit un avertissement:

"Vous exécutez peut-être du code non autorisé, ce qui peut restreindre votre capacité à utiliser Colab à l'avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ.'

Cependant, fait intéressant, l'utilisateur est actuellement autorisé à poursuivre l'exécution du code.

Le nouvel avertissement qui a accueilli les deepfakers DFL tentant d'exécuter le code sur Google Colab. Source : https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Le nouvel avertissement qui a accueilli les deepfakers DFL tentant d'exécuter le code sur Google Colab. Source : https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Selon un utilisateur de Discord pour la distribution rivale FaceSwap, le code de ce projet ne déclenche apparemment pas encore l'avertissement, suggérant que le code de DeepFaceLab (également l'architecture d'alimentation pour la mise en œuvre du streaming deepfake en temps réel DeepFaceLive), de loin la méthode de deepfakes la plus répandue, a été spécifiquement ciblée par Colab.

Le co-développeur principal de FaceSwap, Matt Tora, a commenté* :

«Je trouve très peu probable que Google fasse cela pour des raisons éthiques particulières, plus que la raison d'être de Colab est que les étudiants / data scientists / chercheurs puissent exécuter du code GPU coûteux en calculs de manière simple et accessible, sans charge. Cependant, je soupçonne qu'un nombre non négligeable d'utilisateurs exploitent cette ressource pour créer des modèles deepfake, à grande échelle, ce qui est à la fois coûteux en calcul et prend un temps de formation non négligeable pour produire des résultats.

"On pourrait dire que Colab se penche davantage sur le côté éducatif et de recherche de l'IA. L'exécution de scripts qui nécessitent peu d'intervention de l'utilisateur, ni de compréhension, a tendance à aller à l'encontre de cela. Chez Faceswap, nous essayons de nous concentrer sur l'éducation de l'utilisateur à l'IA et aux mécanismes impliqués, tout en abaissant la barrière à l'entrée. Nous encourageons vivement l'utilisation éthique du logiciel et pensons que rendre ces types d'outils accessibles à un public plus large aide à éduquer les gens sur ce qui est réalisable dans le monde d'aujourd'hui, plutôt que de le garder caché pour quelques privilégiés.

«Malheureusement, nous ne pouvons pas contrôler la façon dont nos outils sont finalement utilisés, ni où ils sont exécutés. Cela m'attriste qu'une avenue ait été fermée pour que les gens expérimentent notre code, cependant, en termes de protection de cette ressource particulière pour assurer sa disponibilité pour le public cible réel, je trouve cela compréhensible.

Rien ne prouve que la nouvelle restriction se limite uniquement au niveau gratuit de Google Colab – au bas de la liste des activités interdites auxquelles les deepfakes ont désormais été ajoutés, se trouve la note "Des restrictions supplémentaires existent pour les utilisateurs payants", indiquant qu'il s'agit de réglementations de base. En ce qui concerne l'interdiction des deepfakes, cela a dérouté certains, puisque 'extraction de crypto-monnaie' ainsi que les 's'engager dans le partage de fichiers peer-to-peer' sont inclus à la fois dans la section « Restrictions » gratuite et pro.

Selon cette logique, tout ce qui est interdit dans la section gratuite "Restrictions" est autorisé dans la version Pro, tant que la version Pro ne l'interdit pas explicitement, y compris 'l'exécution d'attaques par déni de service' et 'craquage de mot de passe'. Les restrictions supplémentaires pour le niveau Pro visent principalement à ne pas "sous-louer" l'accès pro Colab, malgré les interdictions de duplication déroutantes et sélectives.

Google Colab est une implémentation dédiée de Carnet Jupyter environnements, qui permettent la formation à distance de projets d’apprentissage automatique sur des GPU bien plus puissants que ce que de nombreux utilisateurs peuvent se permettre.

Étant donné que la formation deepfake est une poursuite gourmande en VRAM, et depuis l'avènement de la famine GPU, de nombreux deepfakers ces dernières années ont évité la formation à domicile au profit de la formation à distance dans Colab, où il est possible, selon le hasard et le niveau, de former un deepfake modèle sur des cartes puissantes telles que le TeslaT4 (16 Go de VRAM, actuellement autour de 2 XNUMX USD), le V100 (32 Go de VRAM, environ 4 100 USD) et le puissant A80 (XNUMX Go de VRAM, PDSF de 32,097.00 XNUMX $), entre autres.

L'interdiction de la formation Colab semble susceptible de réduire le nombre de deepfakers capables de former des modèles à plus haute résolution, où les images d'entrée et de sortie sont plus grandes, plus adaptées aux résultats à haute résolution et capables d'extraire et de reproduire des détails faciaux plus importants.

Certains des amateurs et passionnés de deepfake les plus engagés, selon Discord et les messages du forum, ont investi massivement dans du matériel local au cours des deux dernières années, malgré les prix élevés des GPU.

Cependant, étant donné les coûts élevés impliqués, des sous-communautés ont émergé pour faire face aux défis de la formation de deepfakes sur Colabs, l'allocation aléatoire de GPU étant la plainte la plus courante depuis que Colab a limité l'utilisation de GPU haut de gamme aux utilisateurs gratuits.

 

* En messages privés sur Discord

Première publication le 28 mai 2022.
Révisé à 7 h 28 HNE, correction d'une faute de frappe.
Révisé à 12h40 HNE - ajout de précisions concernant les interdictions de deepfake de niveau gratuit et pro, comme on peut le mieux comprendre à partir des listes d'interdictions "gratuites" et "pro".

Écrivain sur l'apprentissage automatique, l'intelligence artificielle et le big data.
Site personnel : martinanderson.ai
Contact : [email protected]
Twitter : @manders_ai