stub Google zakazało szkolenia Deepfakes w Colab – Unite.AI
Kontakt z nami

Artificial Intelligence

Google zakazał szkolenia Deepfake w Colab

mm
Zaktualizowano on

W ciągu ostatnich dwóch tygodni Google po cichu zmienił warunki świadczenia usług dla użytkowników Colab, dodając zastrzeżenie, że usług Colab nie można już używać do uczenia deepfakes.

Majowa aktualizacja wprowadza do Colab zakaz deepfake. Źródło: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Majowa aktualizacja wprowadza do Colab zakaz deepfake. Źródło: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Pierwszą zarchiwizowaną w Internecie wersją z Internet Archive zawierającą zakaz deepfake była Zajęte w ubiegły wtorek, 24 maja. Ostatnia przechwycona wersja najczęściej zadawanych pytań Colab, która to zawiera nie wspomnieć, że zakaz obowiązywał 14th maja.

Z dwóch popularnych dystrybucji służących do tworzenia deepfake'ów, GłębokaTwarzLab (DFL) i Zamiana twarzy, z których oba są rozwidleniami kontrowersyjnego i anonimowego kodu opublikowanego na Reddicie w 2017, tylko tym bardziej notoryczny Wydaje się, że DFL był bezpośrednio objęty zakazem. Według twórcy deepfake „chervonij” z DFL Discord, oprogramowanie działa teraz w Google Colab generuje ostrzeżenie:

„Być może wykonujesz niedozwolony kod, co może ograniczyć Twoją możliwość korzystania z Colab w przyszłości. Proszę zwrócić uwagę na zabronione działania wymienione w naszym FAQ.'

Jednak, co ciekawe, użytkownik może obecnie kontynuować wykonywanie kodu.

Nowe ostrzeżenie, które powitało deepfakerów DFL próbujących uruchomić kod w Google Colab. Źródło: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Nowe ostrzeżenie, które powitało deepfakerów DFL próbujących uruchomić kod w Google Colab. Źródło: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Według użytkownika Discorda zajmującego się konkurencyjną dystrybucją FaceSwap, kod tego projektu najwyraźniej nie uruchamia jeszcze ostrzeżenia, co sugeruje, że kod DeepFaceLab (również architektura zasilania dla implementacji przesyłania strumieniowego deepfake w czasie rzeczywistym DeepFace na żywo), zdecydowanie najbardziej dominująca metoda deepfakes, stała się celem Colab.

Matt Tora, współprowadzący programista FaceSwap, skomentował*:

„Uważam za bardzo mało prawdopodobne, aby Google robił to z jakichś szczególnych powodów etycznych, bardziej że raison d'être Colab jest taka, aby studenci/naukowcy/badacze danych mogli uruchamiać kosztowny obliczeniowo kod GPU w łatwy i przystępny sposób, bez opłata. Podejrzewam jednak, że spora liczba użytkowników wykorzystuje ten zasób do tworzenia fałszywych modeli na dużą skalę, co jest zarówno kosztowne obliczeniowo, jak i wymaga znacznej ilości czasu szkolenia, aby uzyskać wyniki.

„Można powiedzieć, że Colab bardziej skupia się na edukacyjnej i badawczej stronie sztucznej inteligencji. Wykonywanie skryptów, które wymagają niewielkiego wkładu użytkownika ani zrozumienia, zwykle jest temu przeciwne. W Faceswap staramy się skupiać na edukacji użytkownika w zakresie AI i związanych z nią mechanizmów, jednocześnie obniżając barierę wejścia. Gorąco zachęcamy do etycznego korzystania z oprogramowania i uważamy, że udostępnienie tego rodzaju narzędzi szerszemu gronu odbiorców pomaga edukować ludzi w zakresie tego, co jest możliwe do osiągnięcia w dzisiejszym świecie, zamiast ukrywać to przed nielicznymi wybranymi.

„Niestety nie mamy wpływu na to, w jaki sposób nasze narzędzia zostaną ostatecznie wykorzystane ani gdzie będą używane. Zasmuca mnie fakt, że zamknięto drogę ludziom do eksperymentowania z naszym kodem, jednak uważam to za zrozumiałe, jeśli chodzi o ochronę tego konkretnego zasobu i zapewnienie jego dostępności rzeczywistej grupie docelowej.

Nie ma dowodów na to, że nowe ograniczenie ogranicza się wyłącznie do bezpłatnej warstwy Google Colab – na dole listy zabronionych działań, do których dodano obecnie deepfakes, znajduje się uwaga „Istnieją dodatkowe ograniczenia dla płatnych użytkowników”wskazując, że są to przepisy podstawowe. Jeśli chodzi o zakaz deepfakes, niektórzy od tego czasu byli zdezorientowani „kopanie kryptowalut” i „angażowanie się w wymianę plików peer-to-peer” są zawarte zarówno w bezpłatnej, jak i profesjonalnej sekcji „Ograniczenia”.

Zgodnie z tą logiką wszystko, co jest zakazane w bezpłatnej sekcji „Ograniczenia”, jest dozwolone w wersji Pro, o ile wersja Pro nie zabrania tego wyraźnie, w tym przeprowadzanie ataków typu „odmowa usługi”.' i „łamanie hasła”. Dodatkowe ograniczenia dla poziomu Pro dotyczą głównie zakazu „podnajmu” dostępu Pro Colab, pomimo mylących i selektywnych zakazów powielania.

Google Colab jest dedykowaną implementacją Notatnik Jupyter środowiskach, które pozwalają na zdalne szkolenie projektów uczenia maszynowego na znacznie mocniejszych procesorach graficznych, niż wielu użytkowników może sobie pozwolić.

Ponieważ szkolenie deepfake wymaga dużej ilości pamięci VRAM, a od czasu nadejścia głodu GPU wielu deepfakerów w ostatnich latach zrezygnowało ze szkoleń w domu na rzecz zdalnego szkolenia w Colab, gdzie możliwe jest, w zależności od szansy i poziomu, wyszkolenie deepfake'a model na potężnych kartach, takich jak Tesli T4 (16 GB VRAM, obecnie około 2 tys. USD), V100 (32 GB VRAM, około 4 tys. dolarów) i potężny A100 (80 GB VRAM, MSRP w wysokości 32,097.00 XNUMX USD), między innymi.

Wydaje się, że zakaz szkolenia w ramach Colab ograniczy liczbę deepfakerów zdolnych do trenowania modeli o wyższej rozdzielczości, w przypadku których obrazy wejściowe i wyjściowe są większe, lepiej dostosowane do wyników o wysokiej rozdzielczości oraz zdolne do wydobywania i odtwarzania większej liczby szczegółów twarzy.

Jak wynika z postów na Discordzie i forach, niektórzy z najbardziej zaangażowanych hobbystów i entuzjastów deepfake’u w ciągu ostatnich kilku lat mocno zainwestowali w lokalny sprzęt, pomimo wysokich cen procesorów graficznych.

Jednak biorąc pod uwagę wysokie koszty, pojawiły się podspołeczności, które mają stawić czoła wyzwaniom związanym ze szkoleniem deepfakes w Colabs, a losowa alokacja procesora graficznego jest najczęstszą skargą, ponieważ Colab ograniczył użycie procesorów graficznych wyższej klasy do bezpłatnych użytkowników.

 

* W prywatnych wiadomościach na Discord

Opublikowano po raz pierwszy 28 maja 2022 r.
Poprawiono o 7:28 czasu wschodniego, poprawka literówki w cytacie.
Poprawiono o 12:40 czasu wschodniego – dodano wyjaśnienia dotyczące darmowych i profesjonalnych zakazów deepfake, co najlepiej można zrozumieć z list zakazów „bezpłatnych” i „pro”.

Pisarz na temat uczenia maszynowego, sztucznej inteligencji i dużych zbiorów danych.
Strona osobista: martinanderson.ai
Kontakt: [email chroniony]
Twitter: @manders_ai