Sztuczna inteligencja
Google Zabronił Szkolenia Deepfakes w Colab

W ciągu ostatnich dwóch tygodni Google cicho zmienił warunki korzystania z usługi Colab, dodając postanowienie, że usługi Colab nie mogą być już wykorzystywane do szkolenia deepfakes.

May update wprowadza zakaz deepfakes w Colab. Source: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions
Pierwsza wersja zarchiwizowana w Internet Archive, zawierająca zakaz deepfakes, została zapisana w zeszłym tygodniu, 24 maja. Ostatnia zarchiwizowana wersja FAQ Colab, która nie wspomina o zakazie, pochodzi z 14 maja.
Spośród dwóch popularnych dystrybucji do tworzenia deepfakes, DeepFaceLab (DFL) i FaceSwap, obie są forkami kontrowersyjnego i anonimowego kodu opublikowanego na Reddit w 2017, tylko bardziej znany DFL wydaje się być bezpośrednio objęty zakazem. Zgodnie z oświadczeniem developera deepfakes ‘chervonij’ na Discordzie DFL, uruchamianie oprogramowania w Google Colab powoduje teraz wyświetlenie ostrzeżenia:
‘Możesz wykonywać kod, który jest zabroniony, co może ograniczyć Twoją możliwość korzystania z Colab w przyszłości. Zwróć uwagę na zabronione działania określone w naszym FAQ.’
Jednak interesujące jest to, że użytkownik może obecnie kontynuować wykonywanie kodu.

Nowe ostrzeżenie, które powitało twórców deepfakes DFL, próbujących uruchomić kod na Google Colab. Source: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136
Zgodnie z oświadczeniem użytkownika na Discordzie dla rywalizującej dystrybucji FaceSwap, kod tego projektu nie wyzwala jeszcze ostrzeżenia, co sugeruje, że kod dla DeepFaceLab (również architektura dla implementacji strumieniowego deepfakes DeepFaceLive), najbardziej dominującej metody deepfakes, został celowo objęty zakazem przez Colab.
Współtwórca FaceSwap, Matt Tora, skomentował*:
‘Uważam, że jest to bardzo nieprawdopodobne, aby Google robili to z powodów etycznych, bardziej dlatego, że Colab jest przeznaczony dla studentów, naukowców i badaczy, aby mogli uruchamiać kod GPU w łatwy i bezpłatny sposób. Jednak podejrzewam, że znaczna część użytkowników wykorzystuje ten zasób do tworzenia modeli deepfakes, co jest zarówno kosztowne, jak i wymaga znacznej ilości czasu szkolenia, aby osiągnąć wyniki.’
‘Można powiedzieć, że Colab skłania się bardziej ku stronie edukacyjnej i badawczej AI. Wykonywanie skryptów, które wymagają niewielkiego wkładu użytkownika, ani zrozumienia, idzie wbrew temu. W Faceswap staramy się skupić na edukowaniu użytkownika w zakresie AI i mechanizmów zaangażowanych, jednocześnie obniżając barierę wejścia. Zachęcamy do etycznego korzystania z oprogramowania i uważamy, że udostępnianie tych narzędzi szerszemu gronu ludzi pomaga edukować ich w zakresie tego, co jest osiągalne w dzisiejszym świecie, zamiast ukrywać to dla wybranych.’
‘Niestety, nie możemy kontrolować, w jaki sposób nasze narzędzia są ostatecznie wykorzystywane, ani gdzie są uruchamiane. Smuci mnie, że jeden z kanałów doświadczalnych został zamknięty dla ludzi, jednak w kwestii ochrony tego zasobu, aby zapewnić jego dostępność dla rzeczywistej grupy docelowej, uważam to za zrozumiałe.’
Nie ma dowodów na to, że nowy zakaz dotyczy tylko warstwy bezpłatnej Google Colab – na dole listy zabronionych działań, do których dodano deepfakes, znajduje się adnotacja ‘Dodatkowe ograniczenia istnieją dla płatnych użytkowników’, co wskazuje, że są to podstawowe regulacje. W odniesieniu do zakazu deepfakes, jest to mylące, ponieważ ‘wydobywanie kryptowalut’ i ‘uczestniczenie w peer-to-peer udostępnianiu plików’ są uwzględnione w sekcjach ‘Ograniczenia’ zarówno dla wersji bezpłatnej, jak i profesjonalnej.
Zgodnie z tym rozumowaniem, wszystko, co jest zabronione w sekcji ‘Ograniczenia’ wersji bezpłatnej, jest dozwolone w wersji Pro, o ile wersja Pro nie wyraźnie tego zabrania, w tym ‘uruchamianie ataków typu denial-of-service’ i ‘łamanie haseł’. Dodatkowe ograniczenia dla warstwy Pro dotyczą głównie nie ‘podnajmowania’ dostępu do Colab Pro, pomimo mylących i selektywnych powtarzających się zakazów.
Google Colab to dedykowana implementacja środowisk Jupyter notebook, które umożliwiają zdalne szkolenie projektów machine learning na znacznie bardziej potężnych GPU, niż mogą sobie pozwolić wielu użytkowników.
Ponieważ szkolenie deepfakes jest pożądaniem VRAM, a od czasu wystąpienia głodu GPU, wielu twórców deepfakes w ostatnich latach porzuciło szkolenie w domu na rzecz szkolenia zdalnego w Colab, gdzie, w zależności od szansy i warstwy, można szkolić model deepfakes na potężnych kartach, takich jak Tesla T4 (16GB VRAM, obecnie około 2 tys. USD), V100 (32GB VRAM, około 4 tys. USD), i potężny A100 (80GB VRAM, cena detaliczna 32 097,00 USD), wśród innych.
Zakaz szkolenia w Colab wydaje się prawdopodobnie zmniejszyć pulę twórców deepfakes, którzy mogą szkolić modele o wyższej rozdzielczości, gdzie obraz wejściowy i wyjściowy są większe, bardziej odpowiednie do wysokich rozdzielczości i zdolne do ekstrakcji i odtwarzania większych szczegółów twarzy.
Niektórzy z najbardziej zaangażowanych hobbystów i entuzjastów deepfakes, zgodnie z postami na Discordzie i forach, zainwestowali znacznie w sprzęt lokalny w ciągu ostatnich dwóch lat, pomimo wysokich cen GPU.
Jednakże, ze względu na wysokie koszty, powstały subkultury, które zajmują się wyzwaniami szkolenia deepfakes na Colab, przy czym losowa alokacja GPU jest najczęstszą skargą od czasu, gdy Colab ograniczył korzystanie z kart wyższej klasy dla użytkowników bezpłatnych.
* W wiadomościach prywatnych na Discord
Pierwotnie opublikowane 28 maja 2022.
Zrewidowane 7:28 AM EST, poprawiono błąd w cytacie.
Zrewidowane 12:40 pm EST – dodano wyjaśnienie dotyczące zakazu deepfakes w warstwach bezpłatnej i pro, w miarę możliwości zrozumienia z list ‘bezpłatnych’ i ‘pro’ zakazów.










