Connect with us

Google заборонив навчання Deepfakes в Colab

Штучний інтелект

Google заборонив навчання Deepfakes в Colab

mm

Десь за останні два тижні Google тихо змінив умови надання послуг для користувачів Colab, додавши застереження, що послуги Colab більше не можуть бути використані для навчання deepfakes.

Оновлення травня вводить заборону на deepfakes в Colab. Джерело: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Оновлення травня вводить заборону на deepfakes в Colab. Джерело: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Перша веб-архівна версія з Internet Archive, яка містить заборону на deepfakes, була записана минулого вівторка, 24 травня. Остання захоплена версія FAQ Colab, яка не зазначає заборону, була 14 травня.

З двох популярних розподілів для створення deepfakes, DeepFaceLab (DFL) і FaceSwap, обидва з яких є форками суперечливого та анонімного коду, опублікованого на Reddit у 2017 році, тільки більш відомий DFL, як видається, був безпосередньо націлений забороною. За словами розробника deepfakes ‘chervonij’ на DFL Discord, виконання програмного забезпечення в Google Colab тепер генерує попередження:

‘Ви можете виконувати код, який заборонено, і це може обмежити вашу можливість використовувати Colab у майбутньому. Будь ласка, зверніть увагу на заборонені дії, зазначені в нашому FAQ.’

Однак цікаво, що користувач зараз дозволено продовжувати виконання коду.

Нове попередження, яке зустріло deepfakers DFL під час спроби запустити код на Google Colab. Джерело: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Нове попередження, яке зустріло deepfakers DFL під час спроби запустити код на Google Colab. Джерело: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

За словами користувача в Discord для конкуруючого розподілу FaceSwap, код цього проекту, як видається, ще не спрацьовує попередження, що свідчить про те, що код для DeepFaceLab (також архітектуру для реалізації потокового deepfakes в реальному часі DeepFaceLive), який є найбільш поширеним методом deepfakes, був спеціально націлений Colab.

Со-лідер розробника FaceSwap Метт Тора прокоментував*:

‘Я вважаю дуже малоймовірним, що Google робить це з якихось особливих етичних причин, більше того, що Colab існує для студентів/дослідників, щоб вони могли запускати обчислювально дорогий код на GPU в легкій і доступній формі, безкоштовно. Однак я підозрюю, що не незначна кількість користувачів використовує цю ресурс для створення моделей deepfakes у великому масштабі, що є обчислювально дорогим і вимагає не незначного часу навчання для отримання результатів.’

‘Ви можете сказати, що Colab нахилений більше до освітньої, дослідницької сторони AI. Виконання скриптів, які вимагають мало користувальницького вводу, ні розуміння, tende до протилежного цьому. У FaceSwap ми намагаємося зосередитися на освіті користувача в AI та механізмах, залучених до цього, а також знижувати бар’єр для входу. Ми дуже заохочуємо етичне використання програмного забезпечення та вважаємо, що надання цих інструментів ширшій аудиторії допомагає освітити людей щодо того, що можна досягти в сучасному світі, а не тримати це прихованим для вибраної групи.’

‘На жаль, ми не можемо контролювати, як наші інструменти будуть використовуватися в кінцевому підсумку, ні де вони будуть запущені. Це засмучує мене, що одна з можливостей була закрита для людей, щоб експериментувати з нашим кодом, однак щодо захисту цього ресурсу, щоб забезпечити його доступність фактичній цільовій аудиторії, я вважаю це зрозумілим.’

Не існує доказів того, що нове обмеження обмежується тільки безкоштовним рівнем Google Colab – унизу списку заборонених дій, до яких тепер додані deepfakes, є примітка ‘Додаткові обмеження існують для платних користувачів’, що вказує на те, що ці є базовими правилами. Що стосується заборони на deepfakes, це викликало плутанину в деяких, оскільки ‘видобуток криптовалюти’ і ‘участі в peer-to-peer файл-шерінгу’ включені в обидва вільні та про обмеження.

За цією логікою, все, що заборонено в вільному розділі обмежень, дозволено в версії Pro, поки версія Pro не забороняє це явно, включаючи ‘запуск атак заперечення обслуговування’ і ‘виробництво паролів’. Додаткові обмеження для рівня Pro в основному стосуються того, щоб не ‘підоріжувати’ доступ до Pro Colab, незважаючи на плутану та вибіркову дублікацію заборон.

Google Colab – це спеціалізована реалізація середовищ Jupyter notebook, які дозволяють віддалене навчання проектів машинного навчання на набагато потужніших GPU, ніж можуть собі дозволити багато користувачів.

Оскільки навчання deepfakes – це поглинання VRAM, а з появою нестачі GPU, багато deepfakers в останні роки відмовилися від навчання вдома на користь віддаленого навчання в Colab, де, залежно від випадку та рівня, можна навчати модель deepfakes на потужних картах, таких як Tesla T4 (16GB VRAM, зараз близько 2 тисяч доларів США), V100 (32GB VRAM, близько 4 тисяч доларів США), і могутній A100 (80GB VRAM, MRSP 32 097,00 доларів США) серед інших.

Заборона на навчання в Colab, як видається, скорочує кількість deepfakers, які можуть навчати моделі вищої роздільної здатності, де вхідні та вихідні зображення більші, більш придатні для високої роздільної здатності результатів, і здатні витягувати та відтворювати більшу кількість деталей обличчя.

Деякі з найбільш присвячених хобі deepfakers і ентузіастів, згідно з повідомленнями на Discord і форумах, вклали великі кошти в локальне обладнання за останні пару років, незважаючи на високі ціни на GPU.

Однак, враховуючи високі витрати, з’явилися суб-спільності для боротьби з проблемами навчання deepfakes на Colab, з випадковим розподілом GPU найпоширенішою скаргою з тих пір, як Colab обмежив використання вищого рівня GPU для безкоштовних користувачів.

 

* У приватних повідомленнях на Discord

Перша публікація 28 травня 2022 р.
Переглянута 7:28 ранку за східним часом, виправлення друку цитати.
Переглянута 12:40 дня за східним часом – додано уточнення щодо заборони на deepfakes для безкоштовного та професійного рівнів, якнайкраще можна зрозуміти з ‘вільного’ та ‘платного’ списків заборон.

Писатель про машинне навчання, домен-спеціаліст у сфері синтезу зображень людини. Колишній керівник дослідницького контенту в Metaphysic.ai.
Особистий сайт: martinanderson.ai
Контакт: [email protected]