Connect with us

O Google Proibiu o Treinamento de Deepfakes no Colab

Inteligência artificial

O Google Proibiu o Treinamento de Deepfakes no Colab

mm

Em algum momento nas últimas duas semanas, o Google alterou silenciosamente os termos de serviço para os usuários do Colab, adicionando uma estipulação de que os serviços do Colab não podem mais ser usados para treinar deepfakes.

A atualização de maio traz uma proibição de deepfakes para o Colab. Fonte: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

A atualização de maio traz uma proibição de deepfakes para o Colab. Fonte: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

A primeira versão arquivada na Internet que apresenta a proibição de deepfakes foi capturada na última terça-feira, 24 de maio. A última versão capturada da FAQ do Colab que não menciona a proibição foi no dia 14 de maio.

Das duas distribuições populares de criação de deepfakes, DeepFaceLab (DFL) e FaceSwap, ambas bifurcações do código controverso e anônimo publicado no Reddit em 2017, apenas o mais notório DFL parece ter sido diretamente visado pela proibição. De acordo com o desenvolvedor de deepfakes ‘chervonij’ no Discord do DFL, executar o software no Google Colab agora produz um aviso:

‘Você pode estar executando código que é proibido, e isso pode restringir sua capacidade de usar o Colab no futuro. Por favor, note as ações proibidas especificadas em nossa FAQ.’

No entanto, interessantemente, o usuário é atualmente permitido continuar com a execução do código.

O novo aviso que saudou os criadores de deepfakes do DFL ao tentar executar o código no Google Colab. Fonte: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

O novo aviso que saudou os criadores de deepfakes do DFL ao tentar executar o código no Google Colab. Fonte: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

De acordo com um usuário no Discord da distribuição rival FaceSwap, o código desse projeto aparentemente não dispara o aviso, sugerindo que o código para o DeepFaceLab (também a arquitetura de alimentação para a implementação de transmissão de deepfakes em tempo real DeepFaceLive), de longe o método de deepfakes mais dominante, foi especificamente visado pelo Colab.

O co-líder do desenvolvimento do FaceSwap, Matt Tora, comentou*:

‘Eu acho muito improvável que o Google esteja fazendo isso por alguma razão ética particular, mais que o Colab existe para que estudantes/cientistas de dados/pesquisadores possam executar códigos de GPU computacionalmente caros de forma fácil e acessível, sem custo. No entanto, eu suspeito que uma quantidade não insignificante de usuários está explorando esse recurso para criar modelos de deepfakes, em escala, o que é computacionalmente caro e leva um tempo de treinamento não insignificante para produzir resultados.’

‘Você pode dizer que o Colab se inclina mais para o lado educacional, de pesquisa, da IA. Executar scripts que requerem pouco input do usuário, nem compreensão, tende a ir contra isso. No FaceSwap, tentamos nos concentrar em educar o usuário em IA e nos mecanismos envolvidos, enquanto reduzimos a barreira de entrada. Nós incentivamos muito o uso ético do software e sentimos que tornar essas ferramentas disponíveis para uma audiência mais ampla ajuda a educar as pessoas sobre o que é alcançável no mundo de hoje, em vez de mantê-las escondidas para uma seleção.’

‘Infelizmente, não podemos controlar como nossas ferramentas são usadas, nem onde elas são executadas. Isso me entristece que uma via tenha sido fechada para as pessoas experimentarem com nosso código, no entanto, em termos de proteger esse recurso para garantir sua disponibilidade para o público-alvo real, eu acho compreensível.’

Não há evidências de que a nova restrição seja limitada apenas à camada gratuita do Google Colab – na parte inferior da lista de atividades proibidas às quais os deepfakes agora foram adicionados, está a nota ‘Existem restrições adicionais para usuários pagantes’, indicando que essas são regulamentações básicas. Em relação à proibição de deepfakes, isso confundiu alguns, desde que ‘mineração de criptomoedas’ e ‘envolvimento em compartilhamento de arquivos peer-to-peer’ estão incluídos em ambas as seções ‘Restrições’ gratuitas e profissionais.

Por essa lógica, tudo o que é proibido na seção ‘Restrições’ gratuita é permitido na versão Pro, desde que a versão Pro não proíba explicitamente, incluindo ‘executar ataques de negação de serviço’ e ‘quebrar senhas’. As restrições adicionais para a camada Pro são principalmente preocupadas em não ‘sublocar’ o acesso ao Colab Pro, apesar das proibições duplicadas confusas e seletivas.

O Google Colab é uma implementação dedicada de ambientes de notebook Jupyter, que permitem o treinamento remoto de projetos de aprendizado de máquina em GPUs muito mais poderosas do que muitos usuários podem pagar.

Como o treinamento de deepfakes é uma busca voraz de VRAM, e desde o início da escassez de GPUs, muitos criadores de deepfakes nos últimos anos abandonaram o treinamento em casa em favor do treinamento remoto no Colab, onde é possível, dependendo da chance e da camada, treinar um modelo de deepfake em cartões poderosos como o Tesla T4 (16GB VRAM, atualmente cerca de $2k USD), o V100 (32GB VRAM, cerca de $4k USD), e o poderoso A100 (80GB VRAM, MSRP de $32,097.00), entre outros.

A proibição do treinamento no Colab parece provável que reduza o pool de criadores de deepfakes capazes de treinar modelos de maior resolução, onde as imagens de entrada e saída são maiores, mais adequadas para resultados de alta resolução, e capazes de extrair e reproduzir detalhes faciais maiores.

Alguns dos criadores de deepfakes mais comprometidos e entusiastas, de acordo com posts no Discord e fóruns, investiram pesadamente em hardware local nos últimos dois anos, apesar dos preços altos das GPUs.

No entanto, dado os altos custos envolvidos, subcomunidades surgiram para lidar com os desafios de treinar deepfakes no Colab, com alocação aleatória de GPU a queixa mais comum desde que o Colab limitou o uso de GPUs de ponta para usuários gratuitos.

 

* Em mensagens privadas no Discord

Publicado pela primeira vez em 28 de maio de 2022.
Revisado às 7:28 AM EST, correção de erro de citação.
Revisado às 12:40pm EST – adicionada clarificação sobre a proibição de deepfakes nas camadas gratuita e Pro, conforme pode ser entendido a partir das listas de proibições ‘gratuita’ e ‘Pro’.

Escritor sobre aprendizado de máquina, especialista em síntese de imagem humana. Ex-chefe de conteúdo de pesquisa da Metaphysic.ai.