Погляд Anderson
Методи IP-Видалення в AI

Якщо надходять юридичні роз’яснення щодо використання інтелектуальної власності при навчанні AI, існують також кілька методів приховування такого використання.
Опінія Поточна, швидко просунута революція в генеративному AI розгортається в найбільш юридично небезпечному середовищі, яке супроводжує будь-який трансформаційний технологічний розвиток від дев’ятнадцятого століття.
До 3-4 років тому дослідницька спільнота машинного навчання мала неявне (часто явне) дозвіл на використання матеріалів, захищених авторським правом, під час розробки нових систем; оскільки ці системи ще не були успішними, у тому сенсі, що вони були зрілими або комерційно життєздатними, результати були, у кожному сенсі, академічними.
У цей період раптовий успіх нового покоління дифузійних великомасштабних мовних моделей (LLM, таких як ChatGPT і Claude) і візуально-мовних моделей (VLM, таких як Sora) сигналізував про те, що ці абстрактні та раніше “безпекові” напрямки досліджень перетворилися на комерційно життєздатні, і виростили свій “вільний пропуск”, щодо використання чужої інтелектуальної власності.
Відтепер власники прав будуть домагатися частки в плодах систем AI, навчених в основному або частково на їх захищених авторським правом або іншим чином даних, що призведе до триваючої лавини юридичних справ, які вимагають деяких зусиль, щоб навіть слідкувати за ними.

Тут обмежено лише справами, поданими в США, нові справи з’являються в френетичному темпі в Сполучених Штатах і за їх межами. Джерело
Мандат “Безкоштовного Обіду”
Фінансова присвята поточна щодо інфраструктури AI була постановлена деякими голосами як спроба закріпити “крихкі з авторським правом” AI так глибоко в економіці суспільства, що воно стане не тільки “занадто великим, щоб зазнати поразки”, але також “занадто потужним, щоб його можна було успішно судити” – або принаймні, що успішні судові справи не зможуть дозволити революції зазнати поразки.
У цьому загальному настрої поточний президент Сполучених Штатів включає до політики свою думку, що “Ви не можете очікувати мати успішну програму AI, коли кожна стаття, книга або все інше, що ви прочитали або вивчили, вам потрібно платити за це”.
Дійсно? Ніщо подібне не траплялося в західній індустріальній ері, і це представляє рух, який сильно тереться проти традиційної американської культури судових справ і відшкодування; можливо, найближчі подібні позиції – обов’язковий термін дії патентів на лікарські засоби після 20 років (самі по собі часто піддаються нападкам), і обмеження на очікування конфіденційності в громадських місцях.
Однак, часи змінюються; у відсутності будь-якої гарантії, що поточна тенденція до “видатної власності” проти захисту інтелектуальної власності не зазнає невдачі або не буде скасована пізніше, існують кілька вторинних підходів, які стають стандартною практикою в розробці систем AI і обробці спірних навчальних даних, які живлять її.
Набори Даних за Посередництвом
Один із цих підходів приймає досить схожий підхід до (не завжди успішної) захисту торент-сайтів, які стверджують, що вони не містять жодних спірних матеріалів – або будь-яких матеріалів взагалі.
Крім того, що це усуває необхідність зберігання і надання великих обсягів мінімально стиснутих зображень або відеоданих, такі колекції дозволяють здійснювати швидке оновлення – наприклад, видалення матеріалів за запитом власників авторських прав – і версіонування.
Так само, як торенти є лише вказівниками на те, де можна знайти матеріали, захищені авторським правом, низка дуже впливових наборів даних самі по собі є лише “вказівниками” до існуючих даних; якщо кінцевий користувач бажає використовувати ці списки як список завантаження для свого власного набору даних, це залежить від нього, щодо відповідальності кураторів.
До таких належить набір даних Conceptual 12M від Google Research, який надає підписи до зображень, але вказує лише на місця у мережі, де ці зображення існують (або існували на момент кураторства):

Два приклади з набору даних Conceptual 12M від Google Research. Джерело
Інший видатний приклад, і той, який тепер має законне право на шанобливе місце в історії AI, є набір даних LAION, який сприяє появі системи генерації стабільної дифузії у 2022 році – першої такої системи, яка пропонує потужні відкриті джерела генерації зображень кінцевим користувачам, саме тоді, коли пропріетарні системи, здавалося, мали встановити такі послуги як суто комерційну сферу:

Одна з багатьох варіантів проекту LAION, що містить сучасні та захищені авторським правом твори мистецтва. Джерело
У багатьох випадках великі розміри файлів цих “вказівників” вказують на включення зображень у завантажуваний і розміщений файл; однак, не тривіальні розміри завантаження часто пояснюються великою кількістю текстового вмісту, а іноді включенням витягнутих ембеддінгів або функцій – витягнутих підсумків або вузлів іншого застосовного вмісту, витягнутих з джерельних даних під час процесу навчання.
Відео-Преміум
Відео-набори даних представляють ще сильніший випадок для підходу “наборів даних за посередництвом” або вказівників, оскільки великий обсяг даних, необхідний для агрегації значної та корисної кількості відео в одну завантажувану колекцію, є заборончим, і бажаний “розподілений” метод.
Однак, у обох випадках – але особливо з відео – завантажувані джерельні URL представляють дані, які будуть потребувати суттєвої подальшої уваги перед використанням у процесах навчання. І зображення, і відео будуть потребувати зміни розміру, або ж рішень щодо обрізання будуть прийняті, щоб створити зразки, які будуть поміщені в доступний простір GPU. Навіть серйозно зменшені відео також будуть потребувати обрізання до дуже коротких довжин, таких як 3-5 секунд, типово.
Відмічні відео-набори даних, які використовують посилання на відео в мережі (замість кураторства і прямого пакування відео), включають Kinetics Human Action Video Dataset від Google, і колекцію YouTube-8M від цього ж пошукача, яка використовує сегментну анотацію, щоб вказати, як обробляти кожне відео після завантаження – але знову ж таки залишає кінцевого користувача отримувати відео з наданих URL.
Закрито та Відкрито
Нарешті, у цій категорії “відкриті” дані VFX можуть бути згенеровані з закритих платформ, які згодом публікують і роблять доступним результируючий набір даних. Це розумно запитати, чому це відбувається, і розглянути, чи це відбувається тому, що компанія-оригінатор бажає санітарно обробити модель, небезпечну для авторських прав, для власного використання; або ж тому, що “очищений” набір був запитаний ззовні.
Одним із таких випадків “генераційного промивання” є, безумовно, набір даних Omni-VFX, який включає багато даних з Open-VFX набору даних (який сам по собі посилається на багато закритих і напівзакритих платформ, таких як Pika і PixVerse).
Щиро кажучи, Omni-VFX навіть не намагається приховати це:

У відкритому наборі даних Omni-VFX знане обличчя. Джерело
Спадкова Відповідальність
Другий основний підхід до IP-очищення полягає в використанні матеріалів, захищених авторським правом, на одному або декількох рівнях вище. Одним із методів цієї категорії є використання синтетичних даних, які були навчені в якійсь точці вище на захищених авторським правом даних. У таких випадках, особливо тоді, коли синтетичні дані можуть отримувати автентично виглядні результати, захищені авторським правом роботи забезпечують перетворення, які не могли б бути розумно вгадані або наближені загальними моделями світу або неспеціалізованими моделями.
Це особливо справедливо для генерації відео-систем, які повинні генерувати “неможливі” події, і події, які一般но належать до категорії “візуальних ефектів” (VFX).
Насправді, те, що привело цю тему до уваги, була остання в серії дослідницьких робіт, які пропонують можливість “абстрагувати” різні типи візуальних ефектів, таких як генерація лазерних променів з неможливих частин тіла, або шляхом навчання на замовлених або “відкритих” кліпах VFX (замість більш очевидного джерела, такого як дуже дорогі кліпи VFX з фільмів кіноуніверсуму Marvel):
Приклади з веб-сайту EffectMaker, де “дія” в джерельному кліпі (далеко ліворуч) застосовується до джерельного зображення (центр). Джерело
Вище приклади походять з сторінки проекту для проекту EffectMaker. EffectMaker навіть не перший пропонує таке вже цього року, і насправді це перетворюється на окремий підзадач у дослідженні AI VFX*.
Свідомі того, що медіа-гіганти, такі як Marvel, мають вищий ніж середній шанс виграти юридичні справи щодо інтелектуальної власності (навіть у згаданому кліматі “змушеної толерантності”), компанії візуальних ефектів і стартапи зараз йдуть на помітні заходи, щоб забезпечити, щоб їхні генераційні кадри VFX були вільні від чужої корпоративної інтелектуальної власності.
Перш за все серед них є Meta, яка, як повідомляється, на субреддіті r/vfx, пішла на добре оплачувану зимову кампанію з найму до 2026 року, пропонуючи художникам VFX роботу з навчання моделей AI для виводу кадрів візуальних ефектів рівня Голлівуд. Хоча оплата не була вказана в різних постах, один описав її як “пенсійні гроші”.
Слідкуйте за Грошим
Однак, потрібно задуматися, скільки грошей навіть такі компанії, як Meta, готові заплатити за справжню різноманітність і багату кількість ад hoc кадрів VFX, враховуючи, що середня ціна одного кадру VFX для фільму-блокбастера близько 42 000 доларів США – і багато з них коштують значно більше.
Крім того, розумно припустити, що замовлені AI-моделі генерації VFX будуть підкорятися популярному попиту, включаючи різні стандартні ефекти-тропи з найбільш популярних і дорогих категорій фільмів.
Крім того, що “залишені” фахівці VFX можуть закінчити táiстворенням кадрів, над якими вони працювали для існуючої фільмової колекції† – що сам по собі контекстуалізує “замовлену” роботу над набором даних як імітаційну – немає жодної гарантії, що ці дорогі нові зразки будуть навчені “з нуля” в абсолютно новій архітектурі.
Дійсно, якщо такі рекреації будуть відхилені в допоміжні модулі, такі як LoRAs, які залежать від базової моделі, тоді процес є таким же оборонним, як і базова модель є “чистою від інтелектуальної власності” – і не багато з них.
Аналогічно, якщо “новий” процес використовує інші “гібридні” техніки, такі як тонке налаштування, де цінність візуального ефекту залежить від моделей, апріорної ймовірності, або ембеддінгів з старих колекцій або моделей недоведеної цілісності, оригінальність роботи є, безумовно, косметичною, і підлягає виклику.
Неможливі Місії
Домен виводу VFX є особливо цікавим випадком дослідження щодо потенційного IP-очищення в наборах даних AI, оскільки візуальні ефекти часто зображують “неможливі” речі, для яких не буде відкритих альтернатив.
Наприклад, хоча зруйнування будівлі можна було б навчити в генераційну модель з різних публічних доменів або інших доступних кліпів, якщо ви хочете навчити модель генерувати людські лазерні промені, вам потрібно буде навчити її на кліпах VFX, вкрадених або замовлених; такі речі не трапляються ніде інше.
Навіть у випадку інших типів стихійних лих, таких як драматичне повідь, доступний реальний джерельний матеріал малоймовірно зможе відтворити драматичні точки зору на катастрофічні події, оскільки (з деякими винятками) люди не зазвичай транслюють у прямому ефірі з катастрофічних місць. Тому “круті точки зору” на лихо рідкісні у реальних наборах даних, і будь-яка модель AI, яка може генерувати їх, ймовірно, отримала інформацію з іншого джерела.
Більшість бажаних потоків завдань AI не мають такого рівня специфіки, і в таких випадках приховування вигод від даних, захищених авторським правом, може не потребувати майже такої кількості зусиль.
Висновок: Заплутана Мережа
Тільки ті, хто використовував генераційний AI інтенсивно і протягом тривалого періоду, інстинктивно зрозуміють, що такі системи мають труднощі з поєднанням декількох концепцій, коли немає порівняльних прикладів у їхніх навчальних даних.
Ця обмеження відома як заплутування, при якому різні аспекти навчених концепцій схильні кластеризуватися разом з пов’язаними елементами, а не розкладатися на корисні, легкі будівельні блоки, які можна скласти в будь-яку нову конфігурацію, яку користувач може бажати.
Заплутування є архітектурною гравітаційною ямою, яку майже неможливо уникнути, принаймні для дифузійних підходів, які характеризують усі основні поточні кадри genAI. Однак можливо, що з’являться нові підходи протягом наступних кількох років, які будуть краще розрізнювати навчені концепції, щоб їх можна було скласти більш вправно, і пропонувати менше вказівок щодо їхнього походження.
* Я не висунув жодних звинувачень проти EffectMaker, але коментую тут про загальну практику, яка з’являється в дослідженні відео AI.
† Бо ці кадри, у цих типах фільмів, генерують і продовжують генерувати гроші.
Перша публікація понеділка, 16 березня 2026










