Intelligence artificielle
Google a interdit la formation de deepfakes dans Colab

À un moment donné au cours des deux dernières semaines, Google a modifié discrètement les conditions d’utilisation pour ses utilisateurs de Colab, en ajoutant une stipulation selon laquelle les services Colab ne peuvent plus être utilisés pour former des deepfakes.

La mise à jour de mai apporte une interdiction de deepfake à Colab. Source : https://research.google.com/colaboratory/faq.html#limitations-and-restrictions
La première version archivée sur le Web à partir de l’Internet Archive qui comporte l’interdiction de deepfake a été capturée la semaine dernière, le 24 mai. La dernière version capturée de la FAQ de Colab qui ne mentionne pas l’interdiction était le 14 mai.
Sur les deux distributions de création de deepfakes populaires, DeepFaceLab (DFL) et FaceSwap, qui sont toutes deux des forks du code controversé et anonyme publié sur Reddit en 2017, seul le plus notoire DFL semble avoir été directement visé par l’interdiction. Selon le développeur de deepfake ‘chervonij’ sur le Discord de DFL, l’exécution du logiciel dans Google Colab produit maintenant un avertissement :
‘Vous pouvez exécuter du code qui est interdit, et cela peut restreindre votre capacité à utiliser Colab à l’avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ.’
Cependant, intéressamment, l’utilisateur est actuellement autorisé à continuer l’exécution du code.

L’avertissement nouveau qui a accueilli les deepfakers DFL qui ont tenté d’exécuter le code sur Google Colab. Source : https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136
Selon un utilisateur dans le Discord de la distribution rivale FaceSwap, le code de ce projet n’a pas encore déclenché l’avertissement, suggérant que le code pour DeepFaceLab (également l’architecture d’alimentation pour la mise en œuvre de streaming de deepfake en temps réel DeepFaceLive), de loin la méthode de deepfake la plus dominante, a été spécifiquement visée par Colab.
Le co-développeur principal de FaceSwap, Matt Tora, a commenté* :
‘Je trouve très peu probable que Google fasse cela pour des raisons éthiques particulières, mais plutôt que la raison d’être de Colab est de permettre aux étudiants, aux scientifiques et aux chercheurs de pouvoir exécuter du code GPU coûteux en calcul de manière facile et accessible, gratuitement. Cependant, je soupçonne qu’un nombre non négligeable d’utilisateurs exploitent cette ressource pour créer des modèles de deepfake, à grande échelle, ce qui est à la fois coûteux en calcul et prend un temps de formation non négligeable pour produire des résultats.’
‘On pourrait dire que Colab penche plus vers le côté éducatif et de recherche de l’IA. L’exécution de scripts qui nécessitent peu d’interaction utilisateur, ni de compréhension, va à l’encontre de cela. Chez FaceSwap, nous nous efforçons de nous concentrer sur l’éducation de l’utilisateur en IA et les mécanismes impliqués, tout en abaissant les barrières à l’entrée. Nous encourageons vivement l’utilisation éthique du logiciel et pensons que rendre ces outils disponibles à un public plus large aide à éduquer les gens sur ce qui est réalisable dans le monde d’aujourd’hui, plutôt que de le garder caché pour une poignée de personnes sélectionnées.’
‘Malheureusement, nous ne pouvons pas contrôler la façon dont nos outils sont finalement utilisés, ni où ils sont exécutés. Cela me peine que une voie ait été fermée pour les gens pour expérimenter avec notre code, cependant, en termes de protection de cette ressource pour assurer sa disponibilité au public cible réel, je trouve cela compréhensible.’
Il n’y a aucune preuve que la nouvelle restriction soit limitée uniquement au niveau gratuit de Google Colab – au bas de la liste des activités interdites auxquelles les deepfakes viennent d’être ajoutés, se trouve la note ‘Des restrictions supplémentaires existent pour les utilisateurs payants’, indiquant que ce sont des réglementations de base. En ce qui concerne l’interdiction de deepfake, cela a déconcerté certains, puisque ‘l’extraction de cryptocurrency’ et ‘la participation à des échanges de fichiers peer-to-peer’ sont inclus dans les sections ‘Restrictions’ gratuites et professionnelles.
Selon cette logique, tout ce qui est interdit dans la section ‘Restrictions’ gratuite est autorisé dans la version Pro, tant que la version Pro n’interdit pas explicitement, y compris ‘exécuter des attaques de déni de service’ et ‘casser des mots de passe’. Les restrictions supplémentaires pour le niveau Pro sont principalement concernées par le fait de ne pas ‘sous-louer’ l’accès Pro Colab, malgré les interdictions sélectives et confuses.
Google Colab est une mise en œuvre dédiée d’environnements de Jupyter notebook, qui permettent la formation à distance de projets d’apprentissage automatique sur des GPU beaucoup plus puissants que ce que beaucoup d’utilisateurs peuvent se permettre.
Puisque la formation de deepfake est une poursuite affamée de VRAM, et puisque l’avènement de la pénurie de GPU, de nombreux deepfakers ces dernières années ont abandonné la formation à domicile en faveur d’une formation à distance dans Colab, où il est possible, selon la chance et le niveau, de former un modèle de deepfake sur des cartes puissantes telles que la Tesla T4 (16GB VRAM, actuellement autour de 2 000 $ USD), la V100 (32GB VRAM, autour de 4 000 $ USD), et le puissant A100 (80GB VRAM, MSRP de 32 097,00 $), entre autres.
L’interdiction de formation dans Colab semble susceptible de réduire le bassin de deepfakers capables de former des modèles à résolution plus élevée, où les images d’entrée et de sortie sont plus grandes, plus adaptées à des résultats à haute résolution, et capables d’extraire et de reproduire plus de détails faciaux.
Certains des deepfakers les plus dévoués et les plus enthousiastes, selon les publications sur Discord et les forums, ont investi lourdement dans le matériel local au cours des deux dernières années, malgré les prix élevés des GPU.
Cependant, étant donné les coûts élevés impliqués, des sous-communautés ont émergé pour relever les défis de la formation de deepfakes sur Colabs, avec l’allocation aléatoire de GPU la plainte la plus courante depuis que Colab a limité l’utilisation de GPU de haute fin à des utilisateurs gratuits.
* Dans des messages privés sur Discord
Publié pour la première fois le 28 mai 2022.
Révisé 7h28 HE, correction d’une faute de frappe dans une citation.
Révisé 12h40 – ajout de clarifications concernant les interdictions de deepfake pour les niveaux gratuit et professionnel, dans la mesure du possible à partir des listes ‘gratuit’ et ‘pro’ d’interdictions.










