Góc nhìn Anderson
שיטות IP-Washing ב-AI

אם ישנה חשבון חוקי עתידי בנוגע לשימוש בקניין רוחני באימון AI, ישנן גם מספר שיטות להסוואת שימוש כזה.
דעה המהפכה הנוכחית, המתפתחת במהירות, ב-AI יוצרת, מתרחשת בסביבה המשפטית הפחות יציבה שליוותה כל פיתוח טכנולוגי משמעותי מאז המאה ה-19.
עד לפני 3-4 שנים, קהילת המחקר של למידת מכונה נהנתה מרשות מרומזת (לעיתים מפורשת) לנצל חומר מוגן בקניין רוחני במהלך פיתוח מערכות חדשות; מכיוון שמערכות אלו עדיין לא היו מוצלחות, במובן שהן לא היו בשלות או בעלות יישומים מסחריים, התוצאות היו, בכל מובן, אקדמיות.
בתקופה ההיא, הצלחתה הפתאומית של דור חדש של מודלים גדולים של שפה (LLM, כגון ChatGPT ו-Claude) ומודלים של חזון-שפה (VLM, כגון Sora) סימנה שאלו המחקרים המופשטים וה’חסרי נזק’ פיתחו לבגרות מסחרית, וגדלו מעבר ל’כרטיס חופש’ שלהם, בכל הנוגע לניצול קניין רוחני של אנשים אחרים.
מעתה ואילך, בעלי זכויות י
Góc nhìn Anderson
طرق غسيل البريد الإلكتروني في الذكاء الاصطناعي

إذا كان هناك حساب قانوني قادم بشأن استخدام الملكية الفكرية في تدريب الذكاء الاصطناعي، فهناك أيضًا عدة طرق لتحويل هذا الاستخدام.
الرأي الثورة الحالية في الذكاء الاصطناعي التوليدي تتطور في بيئة قانونية أكثر خطورة مما رافق أي تطور تكنولوجي تحولي منذ القرن التاسع عشر.
حتى قبل 3-4 سنوات، كانت مجتمع أبحاث التعلم الآلي يتمتع بترخيص ضمني (في كثير من الأحيان صريح) لاستغلال المواد المحمية بحقوق الطبع والنشر في تطوير أنظمة جديدة؛ منذ أن لم تكن هذه الأنظمة ناجحة بعد، من حيث النضج أو القابلية للتسويق، كانت النتائج في كل معنى، أكاديمية.
في ذلك الفترة، أشار نجاح فجوي لجيل جديد من نماذج اللغة الكبيرة القائمة على الانتشار (LLMs، مثل ChatGPT و Claude) و نماذج اللغة والرؤية (VLMs، مثل Sora) إلى أن هذه الخيوط المجردة وسابقة العدوانية من البحث قد طورت إلى مجال تجاري قابل للتسويق، وخرجت من “المرور المجاني”، فيما يتعلق باستغلال ملكية الآخرين الفكرية.
من الآن فصاعدًا، سيتطلع أصحاب الحقوق إلى الحصول على حصة في ثمار أنظمة الذكاء الاصطناعي التي تم تدريبها بشكل كبير أو جزئي على بياناتهم المحمية بحقوق الطبع والنشر أو غيرها، مما يؤدي إلى سيل متواصل من القضايا القانونية التي تتطلب جهدًا للبقاء على اطلاع.

Here limited only to cases brought in the US, new cases emerge at a frenetic pace in the United States and beyond. Source
إلزام “الغداء المجاني”
الالتزام المالي الذي يحدث حاليًا فيما يتعلق ببنية تحتية لخدمات الذكاء الاصطناعي قد تم وضعه من قبل بعض الأصوات كجهد لتعزيز “الذكاء الاصطناعي المعرض للخطر بحقوق الطبع والنشر” بشكل 深 في اقتصاد المجتمع بحيث يصبح ليس فقط “كبيرًا جدًا ليهزم”، ولكن أيضًا “قويًا جدًا لمقاضاته” – أو قويًا جدًا، على الأقل، بحيث لا يمكن السماح للقضايا الناجحة بأن تعرقل الثورة.
نحو هذا المزاج العام، يلتزم الرئيس الحالي للولايات المتحدة بسياساته رأيه بأن لا يمكن توقع أن يكون لديك برنامج ذكاء اصطناعي ناجح عندما كل مقال أو كتاب أو أي شيء آخر تقرأه أو دراسته، يجب عليك دفع ثمنه.
هل حقًا؟ لم يحدث شيء مشابه أو قابل للمقارنة في العصر الصناعي الغربي، وهذا يمثل حركة تتعارض بشدة مع الثقافة التقليدية الأمريكية للتقاضي والتعويض؛ ربما يكون المواقف الأكثر تشابهًا هي انتهاء صلاحية براءات الاختراع الطبية بعد 20 عامًا (التي herself مهاجمة بشكل متكرر)، و الlimitation على التوقعات من الخصوصية في الأماكن العامة.
ومع ذلك، تتغير الأوقات؛ في غياب أي ضمان بأن الاتجاه الحالي نحو “المنفعة العامة” ضد حماية الملكية الفكرية لن يتراجع، أو يُ đảo فيما بعد، هناك العديد من المناهج الثانوية التي أصبحت معايير قياسية في تطوير أنظمة الذكاء الاصطناعي، وعلاج البيانات المتنازع عليها التي تدفعها.
مجموعات البيانات بالوكالة
تتخذ واحدة من هذه المناهج نهجًا مشابهًا جدًا للدفاع الذي تقدمه مواقع قوائم التورنت بأنها لا تستضيف أي مواد متنازع عليها – أو أي مواد على الإطلاق.
除了 إلغاء الحاجة إلى تخزين وتقديم كميات كبيرة من بيانات الصور أو الفيديو التي لا يمكن ضغطها، تتيح مجموعات هذا النوع إمكانية التحديث السريع – مثل إزالة المواد عند طلب أصحاب الحقوق – وتحديث الإصدارات.
مثل التورنت، التي هي فقط إشارات إلى حيث يمكن العثور على المواد المحمية بحقوق الطبع والنشر، هناك العديد من مجموعات البيانات المؤثرة التي هي في حد ذاتها فقط قوائم “مؤشر” لبيانات موجودة؛ إذا أراد المستخدم استخدام هذه القوائم كقائمة تحميل لبياناتهم الخاصة، فهذا على مسؤوليتهم، فيما يتعلق بالمسؤولية القانونية للمحافظين.
من بين هذه المجموعات، مجموعة Conceptual 12M من Google Research، التي توفر تعليقات للصور، ولكنها تشير فقط إلى مواقع على الويب حيث توجد هذه الصور (أو كانت موجودة في وقت التحضير):

Two examples from Google Research’s Conceptual 12M curation. Source
مثال آخر بارز، والذي يعتبر الآن له مطالب شرعية في تاريخ الذكاء الاصطناعي، هو مجموعة بيانات LAION التي ساهمت في ظهور نظام التوليد المستقر في عام 2022 – أول إطار من هذا القبيل يقدم صورًا توليدية مفتوحة المصدر إلى المستخدمين النهائيين، كما بدا أن الأنظمة المملوكة تؤسس هذه الخدمات كمنطقة تجارية خاضعة للرقابة:

One of the many variants of the LAION project, featuring modern and copyrighted artworks. Source
في العديد من الحالات، يشير حجم الملفات الكبير لبعض هذه المجموعات “الوكالة” إلى وجود محتوى صورة في ملف قابل للتنزيل والمضيف؛ ومع ذلك، فإن أحجام التنزيل غير المهمة غالبًا ما تكون بسبب حجم كبير من المحتوى النصي، وأحيانًا ما يتم تضمين التضمين المستخرج أو الميزات – ملخصات أو عقدة من المحتوى المعمول به المستخدمة أثناء عملية التدريب.
الفيديو المتميز
تقدم مجموعات الفيديو حالة أقوى لنهج “مجموعة البيانات بالوكالة” أو الإشارة، منذ أن يكون حجم تخزين البيانات المطلوب لتجميع عدد كبير ومفيد من الفيديوهات في مجموعة قابلة للتنزيل كبيرًا، وطريقة “موزعة” مرغوبة.
ومع ذلك، في كلتا الحالتين – ولكن بشكل خاص مع الفيديو – تمثل روابط التنزيل الموجودة في المصدر بيانات ستحتاج إلى انتباه كبير قبل استخدامها في عمليات التدريب. سيتعين على الصور والفيديوهات أن يتم تحجيمها، أو اتخاذ قرارات القص، من أجل إنشاء عينات ستتسع إلى مساحة متاحة للوحدة المركزية للرسومات. حتى الفيديوهات المضغوطة بشدة ستحتاج أيضًا إلى قصها إلى أطوال قصيرة جدًا، مثل 3-5 ثواني، عادة.
تتضمن مجموعات الفيديو البارزة التي تستخدم مراجع إلى مقاطع فيديو على الإنترنت (بدلاً من تحضير وتنظيم الفيديو بشكل مباشر) مجموعة بيانات الفيديو Kinetics Human Action من Google، ومجموعة YouTube-8M من شركة جوجل، التي تستخدم التنقيح الجزئي لتحديد كيفية التعامل مع كل فيديو عند التنزيل – ولكنها تترك للمستخدم الحصول على الفيديوهات من عناوين URL الموردة.
مغلق و مفتوح
أخيرًا، في هذه الفئة، قد يتم توليد بيانات الفكس المفتوحة باستخدام منصات مغلقة التي تنشر فيما بعد وتجعل مجموعة البيانات متاحة.
من الأمثلة على ذلك مجموعة بيانات Omni-VFX، التي تتضمن العديد من نقاط البيانات من مجموعة بيانات Open-VFX (التي تشير في حد ذاتها إلى العديد من المنصات المغلقة وشبه المغلقة، مثل Pika و PixVerse).
لدى Omni-VFX ليس حتى محاولة جيدة:

In the open source Omni-VFX dataset, a familiar face. Source
مسؤولية الأجداد
النهج الرئيسي الثاني لتنظيف الملكية الفكرية هو من خلال استخدام المواد المحمية بحقوق الطبع والنشر على بعد واحد أو أكثر.
واحدة من الطرق في هذه الفئة هي استخدام بيانات اصطناعية تم تدريبها، في مرحلة ما في مجرى النهر، على بيانات محمية بحقوق الطبع والنشر. في مثل هذه الحالات، و特别 حيث يمكن لبيانات اصطناعية الحصول على نتائج تبدو حقيقية، توفر الأعمال المحمية بحقوق الطبع والنشر تحويلات لا يمكن توقعها أو تقديرها بشكل معقول بواسطة نماذج العالم العامة أو النماذج غير المتخصصة.
هذا هو الحال بالتأكيد حيث يتطلب نظام التوليد التوليدي إنتاج “أحداث مستحيلة” وأحداث تنتمي بشكل عام إلى فئة “التأثيرات البصرية” (VFX).
في الواقع، ما جعل هذا الموضوع يأتي إلى الذهن هو أحدث الأوراق البحثية التي تقدم القدرة على “تجريد” أنواع مختلفة من التأثيرات البصرية، مثل إنتاج أشعة الليزر من أجزاء غير محتملة من الجسم، إما عن طريق التدريب على مقاطع فيديو VFX المطلوبة بشكل مخصص أو “مفتوح المصدر” (بدلاً من المصدر الأكثر وضوحًا، مثل اللقطات المكلفة من سلسلة أفلام Marvel السينمائية):
أمثلة من موقع EffectMaker، حيث يتم تطبيق “الحركة” في الشريط المصدر (اليسار البعيد) على صورة مصدر (المركز). Source
تأتي الأمثلة السابقة من صفحة المشروع لمشروع EffectMaker. EffectMaker ليس حتى أول عرض هذا العام ي寻ى إلى استخراج ديناميات VFX من شريط فيديو واحد وتركيبها في شريط جديد، و事实ًا هذا يتحول إلى مهمة فرعية في أبحاث VFX للذكاء الاصطناعي*.
على دراية بأن كيانات الإعلام الكبيرة مثل Marvel لديها فرصة أعلى من المعدل الطبيعي للفوز في القضايا القانونية المتعلقة بحقوق الطبع والنشر (حتى في المناخ المذكور من “التسامح القسري)، فإن شركات التأثيرات البصرية والشركات الناشئة تتخذ حاليًا خطوات كبيرة لضمان أن إطارات التأثيرات البصرية التوليدية الخاصة بهم خالية من ملكية الشركات الأخرى الفكرية.
أول هذه الخطوات هي Meta، التي تم الإبلاغ عنها على subreddit r/vfx أنها ذهبت في جولة توظيف مدفوعة الأجر جيدًا في الشتاء إلى عام 2026، وتقدم فنانين VFX عملًا لتدريب نماذج الذكاء الاصطناعي على إنتاج لقطات تأثيرات بصرية من مستوى هوليوود. على الرغم من أن الأجر لم يُذكر عبر المنشورات المختلفة، وصف أحدها إنه “مONEY للتقاعد”.
اتبع المال
ومع ذلك، يجب أن نتساءل كم المال الذي يستطيع حتى شركة مثل Meta دفعه مقابل تنوع حقيقي ووفرة من لقطات VFX المخصصة، بالنظر إلى أن متوسط سعر لقطة VFX واحدة لفيلم سينمائي هو حوالي 42,000 دولار أمريكي – ويتجاوز العديد منها هذا الرقم بكثير.
علاوة على ذلك، من المعقول أن نعتقد أن نماذج VFX التوليدية المخصصة ستستجيب لطلبات شائعة، بما في ذلك各种 تأثيرات شائعة من فئات الأفلام الأكثر شعبية والأكثر تكلفة.
بصرف النظر عن حقيقة أن محترفي VFX “المتبقية” قد ي结束ون بإعادة إنشاء لقطات عملوا عليها في فهرس أفلام موجود، والتي في حد ذاتها توفر سياقًا للعمل على مجموعة البيانات المخصصة على أنها محاكاة – هناك في أي حال لا يوجد ضمان بأن هذه العينات الجديدة باهظة الثمن ستتدرب “من الصفر” في هيكل جديد.
في الواقع، إذا تم تحويل هذه التكرارات إلى وحدات فرعية مثل LoRAs، التي تعتمد على نموذج قاعدي، فإن العملية ليست أكثر من الدفاع كما هو نموذج قاعدي “نظيف من الناحية القانونية” – ولا يوجد العديد منها.
كما أنه إذا استخدمت العملية “الhibryd” تقنيات مثل التحسين الدقيق، حيث يعتمد قيمة التأثير البصري على نماذج أو سابقات أو تضمين من مجموعات أو نماذج سابقة من دون صحة، فإن أصالة العمل هي موضع تساؤل، ويمكن أن تكون عرضة للتحدي.
مهمات مستحيلة
مجال إخراج VFX هو دراسة حالة مثيرة للاهتمام بشكل خاص فيما يتعلق بغسيل الملكية الفكرية المحتمل في مجموعات بيانات الذكاء الاصطناعي، لأن لقطات التأثيرات البصرية غالبًا ما تصور “أشياء مستحيلة” التي لن يكون هناك بديل مفتوح المصدر متاح.
على سبيل المثال، بينما يمكن تدريب نموذج توليدي على إنتاج هدم مبنى من مقاطع فيديو مجانية أو منخفضة التكلفة، إذا كنت تريد تدريب نموذج على إنتاج أشعة ليزر بشرية، ستحتاج إلى التدريب على لقطات VFX، مسروقة أو مفوضة؛ هذه الأشياء لا تحدث في أي مكان آخر.
حتى في حالة أنواع أخرى من الكوارث الطبيعية، مثل فيضانات دراماتيكية، من غير المحتمل أن تكون قادرًا على إعادة إنتاج وجهات نظر دراماتيكية على أحداث كارثية من مصادر العالم الحقيقي، لأن (باستثناء بعض الاستثناءات) الناس لا يعرضون عادةً مباشرة من مواقع كارثية. لذلك، فإن “المناظر الباردة” على الكوارث نادرة في مجموعات بيانات العالم الحقيقي، ونموذج الذكاء الاصطناعي الذي يمكن أن يولدها يحتمل أن حصل على المعلومات من مكان آخر.
معظم تدفقات المهام المرغوبة في الذكاء الاصطناعي لا تملك هذا المستوى من الخصوصية، وفي مثل هذه الحالات، قد لا يتطلب غسيل ملكية الآخرين الفكرية جهدًا كبيرًا.
الخلاصة: شبكة معقدة
فقط أولئك الذين استخدموا الذكاء الاصطناعي التوليدي على نطاق واسع ولفترة مستدامة سيفهمون بinstinctively أن هذه الأنظمة تعاني من الجمع بين مفاهيم متعددة عندما لا توجد أمثلة قابلة للمقارنة في بيانات التدريب.
هذا القيد يعرف باسم الارتباط، حيث تميل جوانب المفاهيم المُدرَّبة إلى التجمع مع عناصر ذات صلة، بدلاً من التحلل إلى قطع بناء لего مفيدة يمكن تركيبها في أي تكوين جديد يرغب المستخدم في إنشائه.
الارتباط هو حفرة جاذبية معمارية من الصعب الهروب منها، على الأقل对于 المناهج القائمة على الانتشار التي تميز جميع الإطارات الرئيسية الحالية للذكاء الاصطناعي. ومع ذلك، قد تظهر مناهج جديدة خلال السنوات القليلة القادمة التي تكون أفضل في تفكيك المفاهيم المُدرَّبة بحيث يمكن تجميعها بمهارة أكبر، وتقديم أدلة أقل حول أصلها.
* أنا لا أتهم EffectMaker، ولكن أعلق هنا على عمومية ممارسة متصاعدة في أبحاث فيديو الذكاء الاصطناعي.
† لأن هذه اللقطات، في هذه الأنواع من الأفلام، أ.generated وأستمرت في توليد الأموال.
نشر لأول مرة يوم الإثنين، 16 مارس 2026
Góc nhìn Anderson
Méthodes de lavage IP dans l’IA

S’il y a un règlement juridique à venir sur l’utilisation de la propriété intellectuelle dans la formation de l’IA, il existe également plusieurs méthodes pour obscurcir une telle utilisation.
Opinion La révolution actuelle en IA générative, qui se déroule rapidement, se déroule dans l’environnement juridique le plus précaire qui ait accompagné tout développement technologique transformateur depuis le XIXe siècle.
Jusqu’il y a 3-4 ans, la communauté de recherche en apprentissage automatique bénéficiait d’un mandat tacite (souvent explicite) pour exploiter les matériaux protégés par la propriété intellectuelle dans le cadre du développement de nouveaux systèmes ; puisque ces systèmes n’étaient pas encore réussis, en termes de maturité ou de viabilité commerciale, les résultats étaient, dans tous les sens, académiques.
Pendant cette période, le succès soudain d’une nouvelle génération de modèles de langage à grande échelle basés sur la diffusion (LLM, tels que ChatGPT et Claude) et des modèles de vision-langage (VLM, tels que Sora) a signalé que ces recherches abstraites et jusqu’alors « inoffensives » s’étaient développées en une viabilité commerciale et avaient dépassé leur « passeport gratuit », en ce qui concerne l’exploitation de la propriété intellectuelle d’autres personnes.
Désormais, les détenteurs de droits rechercheront une part dans les fruits des systèmes d’IA formés en grande partie ou en partie sur leurs données protégées par le droit d’auteur ou autrement, ce qui entraînera une avalanche continue d’affaires judiciaires qui nécessite un certain effort pour même suivre.

Limité uniquement aux affaires intentées aux États-Unis, de nouvelles affaires émergent à un rythme frénétique aux États-Unis et au-delà. Source
Exiger un « repas gratuit »
L’engagement financier actuellement en cours en ce qui concerne les infrastructures d’IA a été avancé par certaines voix comme un effort pour ancrer l’IA « dangereuse pour le droit d’auteur » si profondément dans l’économie de la société qu’elle devienne non seulement « trop grande pour échouer », mais aussi « trop puissante pour être poursuivie » – ou trop puissante, du moins, pour que des poursuites judiciaires réussies puissent être autorisées à renverser la révolution.
Dans ce sens, le président actuel des États-Unis intègre dans sa politique son point de vue selon lequel « Vous ne pouvez pas être censé avoir un programme d’IA réussi lorsque chaque article, chaque livre ou tout autre élément que vous avez lu ou étudié, vous êtes censé le payer ».
Vraiment ? Rien de semblable ou de comparable ne s’est produit dans l’ère industrielle occidentale, et cela représente un mouvement qui s’oppose sévèrement à la culture traditionnelle américaine de litige et de réparation ; peut-être les positions les plus similaires sont-elles l’expiration obligatoire des brevets médicinaux après 20 ans (qui est déjà fréquemment attaquée), et la limitation des attentes de confidentialité dans les lieux publics.
Cependant, les temps changent ; en l’absence de toute garantie que la tendance actuelle vers le « domaine éminent » contre les protections de la propriété intellectuelle ne faiblira pas, ou ne sera pas inversée plus tard, il existe plusieurs approches secondaires qui deviennent des pratiques standard dans le développement de systèmes d’IA, et le traitement des données de formation très contestées qui les alimentent.
Jeu de données par procuration
L’une de ces approches adopte une approche remarquablement similaire à la défense (pas toujours couronnée de succès) des sites de liste de torrents qui affirment ne pas héberger de matériel contesté – ou tout matériel du tout.
Outre l’évitement de la nécessité de stocker et de servir de grandes quantités de données d’image ou de vidéo non compressibles, les collections de ce type permettent une mise à jour rapide – telle que la suppression de matériel à la demande des détenteurs de droits – et la version.
Tout comme les torrents ne sont que des panneaux indicateurs pour localiser le matériel protégé par la propriété intellectuelle, un certain nombre de jeux de données très influents ne sont eux-mêmes que des listes de type « pointeur » de données existantes ; si l’utilisateur final souhaite utiliser ces listes comme liste de téléchargement pour son propre jeu de données, c’est à lui, en ce qui concerne la responsabilité des curateurs.
Parmi ceux-ci figurent les données Conceptual 12M de Google Research, qui fournissent des légendes pour les images, mais ne pointent qu’aux emplacements sur le web où ces images existent (ou existaient au moment de la curation) :

Deux exemples de la curation Conceptual 12M de Google Research. Source
Un autre exemple notable est le jeu de données LAION qui a facilité l’avènement du système génératif Stable Diffusion en 2022 – le premier cadre de ce type à offrir des images génératives ouvertes et puissantes aux utilisateurs finals, alors que les systèmes propriétaires semblaient sur le point d’établir de tels services comme un domaine purement fermé et commercial :

L’une des nombreuses variantes du projet LAION, présentant des œuvres d’art modernes et protégées par le droit d’auteur. Source
Dans de nombreux cas, les tailles de fichiers importantes de ces collections de « pointeurs » indiquent une inclusion de contenu d’image dans un fichier téléchargeable et hébergé ; cependant, les tailles de téléchargement non triviales sont souvent dues au grand volume de contenu texte, et parfois à l’inclusion d’extractions d’embeddings ou de fonctions – des résumés ou des nœuds de contenu applicable autrement extraits des données sources pendant le processus de formation.
La prime vidéo
Les jeux de données vidéo présentent un cas encore plus fort pour l’approche de « pointeur » ou de proxy, puisque le volume élevé de données de stockage nécessaires pour regrouper un nombre significatif et utile de vidéos dans une seule collection téléchargeable est prohibitif, et une méthode « distribuée » est souhaitable.
Cependant, dans les deux cas – mais particulièrement avec la vidéo – les URL de téléchargement source représentent des données qui nécessiteront une attention significative avant d’être utilisées dans les processus de formation. Les images et les vidéos devront être redimensionnées, ou des décisions de recadrage devront être prises, afin de créer des échantillons qui pourront tenir dans l’espace GPU disponible. Même les vidéos fortement sous-échantillonnées nécessiteront également une coupe à des longueurs très courtes, telles que 3-5 secondes, typiquement.
Des jeux de données vidéo notables qui utilisent des références à des vidéos en ligne (plutôt que la curation et l’emballage direct de la vidéo) incluent le jeu de données Kinetics Human Action Video Dataset de Google, et la collection YouTube-8M de l’entreprise de recherche, qui utilise l’annotation de segment pour indiquer la façon de traiter chaque vidéo une fois téléchargée – mais qui laisse à nouveau l’utilisateur final se procurer les vidéos à partir des URL fournies.
Fermé et ouvert
Enfin, dans cette catégorie, les données VFX « ouvertes » peuvent être générées avec des plates-formes fermées qui publient ensuite et rendent disponibles le jeu de données résultant. Il est raisonnable de se demander pourquoi cela se produit, et de considérer si cela peut être dû au fait que l’entreprise d’origine souhaite nettoyer un modèle amont peu amical en matière de propriété intellectuelle, pour son propre usage ; ou que l’on a demandé un ensemble « lavé » de l’extérieur.
Un tel cas de « lavage de génération » est, de manière controversée, le jeu de données Omni-VFX, qui intègre de nombreux points de données du jeu de données Open-VFX (qui fait lui-même référence à de nombreuses plates-formes fermées et semi-fermées, telles que Pika et PixVerse).
Pour être honnête, Omni-VFX n’essaie même pas vraiment :

Dans le jeu de données open source Omni-VFX, un visage familier. Source
Responsabilité ancestrale
La deuxième approche majeure du lavage de propriété intellectuelle est l’utilisation de matériel protégé par la propriété intellectuelle à une ou plusieurs reprises. L’une des méthodes de cette catégorie est l’utilisation de données synthétiques qui ont été formées, à un moment donné en amont, sur des données protégées par la propriété intellectuelle. Dans de tels cas, en particulier lorsque les données synthétiques sont capables d’obtenir des résultats ressemblant à des données réelles, les œuvres protégées par le droit d’auteur fournissent des transformations qui ne pourraient pas raisonnablement être devinées ou approximées par des modèles généraux du monde ou non spécialisés.
C’est particulièrement le cas lorsque les systèmes génératifs de vidéos nécessitent de générer des « événements impossibles » et des événements qui tomberaient généralement dans la catégorie des « effets visuels » (VFX).
En fait, ce qui a amené ce sujet à l’esprit était la dernière d’une série de documents de recherche offrant la capacité d’« abstraire » divers types d’effets visuels, tels que la production de faisceaux laser à partir de parties improbables du corps, soit en ayant été formé sur des clips VFX personnalisés ou « open source » (plutôt que la source la plus évidente, telle que les plans VFX très coûteux trouvés dans les sorties de l’univers cinématographique Marvel) :
Exemples du site Web EffectMaker, où l’« action » dans le clip source (à gauche) est appliquée à une image source (au centre). Source
Les exemples ci-dessus proviennent de la page du projet pour le projet EffectMaker. EffectMaker n’est même pas la première offre cette année qui cherche à extraire la dynamique VFX d’un clip vidéo et à la transposer dans un clip nouveau, et en fait, cela devient une tâche sous-jacente dans la recherche VFX IA*.
Conscient que les géants des médias tels que Marvel ont une chance supérieure à la moyenne de gagner des affaires judiciaires sur la propriété intellectuelle (même dans le climat de « tolérance forcée »), les sociétés d’effets visuels et les startups prennent actuellement des mesures considérables pour assurer que leurs cadres VFX génératifs soient libres de la propriété intellectuelle d’entreprise d’autres sociétés.
Avant tout, Meta a été signalé sur le subreddit r/vfx pour avoir organisé une vague de recrutement hivernale bien rémunérée jusqu’en 2026, offrant aux artistes VFX un travail de formation de modèles d’IA pour produire des plans d’effets visuels de niveau hollywoodien. Bien que la rémunération n’ait pas été spécifiée dans les divers messages, l’un l’a décrite comme de l’« argent de retraite ».
Suivez l’argent
Cependant, on se demande combien d’argent même les géants comme Meta sont prêts à payer pour une véritable diversité et abondance de plans VFX « ad hoc ». Étant donné que le coût moyen d’un seul plan VFX pour un film à gros budget est d’environ 42 000 USD – et que beaucoup coûtent beaucoup plus cher.
De plus, il est raisonnable de penser que les modèles d’IA génératifs VFX sur mesure céderont à la demande populaire, y compris divers effets standard de tropes à partir des catégories de films les plus populaires et les plus coûteuses.
Outre le point de vue selon lequel les professionnels VFX « restants » pourraient finir par recréer des plans sur lesquels ils ont travaillé pour un catalogue de films existant† – ce qui contextualise déjà le travail de jeu de données « personnalisé » comme imitatif –, il n’y a pas de garantie que ces échantillons coûteux finiront par être formés « à partir de zéro » dans une nouvelle architecture.
En effet, si de telles recréations sont détournées vers des modules adjacents comme les LoRAs, qui s’appuient sur un modèle de base, alors le processus n’est défendable que dans la mesure où le modèle de base est « propre en matière de propriété intellectuelle » – et peu le sont.
De même, si le « nouveau » processus utilise d’autres techniques « hybrides » telles que le réglage fin, où la valeur de l’effet visuel repose sur des modèles, des a priori ou des embeddings à partir d’anciennes collections ou de modèles d’intégrité non étayée, l’originalité du travail est arguablement cosmétique et susceptible de contestation.
Missions impossibles
Le domaine de la production VFX est un cas d’étude particulièrement intéressant en ce qui concerne le lavage potentiel de propriété intellectuelle dans les jeux de données d’IA, puisque les plans d’effets visuels dépeignent souvent des choses « impossibles » pour lesquelles il n’y aura pas d’alternatives open source disponibles.
Par exemple, alors que la démolition d’un bâtiment pourrait être formée dans un modèle génératif à partir de divers clips de stock en domaine public ou autrement abordables, si vous souhaitez former un modèle pour produire des faisceaux laser humains, vous devrez former sur des clips VFX, volés ou commandés ; ce genre de choses n’arrive nulle part ailleurs.
Même dans le cas d’autres types de catastrophes naturelles, telles que des inondations dramatiques, le matériel source réel disponible est peu susceptible de pouvoir reproduire des points de vue dramatiques sur des événements calamiteux, car (avec quelques exceptions) les gens ne diffusent généralement pas en direct depuis des emplacements catastrophiques. Par conséquent, les « vues cool » sur les catastrophes sont rares dans les jeux de données du monde réel, et tout modèle d’IA capable de les générer a probablement obtenu l’information ailleurs.
La plupart des flux de tâches d’IA souhaitables ne présentent pas ce niveau d’originalité, et dans de tels cas, l’obscurcissement des avantages des données protégées par la propriété intellectuelle peut ne pas nécessiter autant d’efforts.
Conclusion : toile entremêlée
Seuls ceux qui ont utilisé l’IA générative de manière extensive et pendant une période prolongée comprendront instinctivement que de tels systèmes ont du mal à combiner plusieurs concepts lorsqu’aucun exemple comparable n’existe dans leurs données de formation.
Cette limitation est connue sous le nom d’entrelacement, dans lequel les diverses facettes des concepts formés ont tendance à se regrouper avec des éléments associés, plutôt que de se décomposer en blocs de construction pratiques qui pourraient être agencés dans n’importe quelle nouvelle configuration que l’utilisateur pourrait souhaiter.
L’entrelacement est un puits de gravité architectural qu’il est pratiquement impossible d’éviter, du moins pour les approches basées sur la diffusion qui caractérisent tous les principaux cadres d’IA actuels. Cependant, il se peut que de nouvelles approches émergent au cours des prochaines années qui soient meilleures pour discrétiser les concepts formés afin qu’ils puissent être assemblés plus adroitement, et offrent moins d’indications quant à leur provenance.
* Je ne porte aucune accusation contre EffectMaker, mais je commente ici sur la généralité d’une pratique émergente dans la recherche vidéo IA.
† Parce que ces plans, dans ces types de films, ont généré et continuent de générer de l’argent.
Publié pour la première fois lundi 16 mars 2026
Góc nhìn Anderson
Métodos de lavado de IP en IA

Si hay un ajuste de cuentas legal por venir sobre el uso de la propiedad intelectual en la formación de la IA, también hay varios métodos para ocultar dicho uso.
Opinión La actual revolución en IA generativa que se está desarrollando es la más precaria desde el punto de vista legal que ha acompañado a cualquier desarrollo tecnológico transformador desde el siglo XIX.
Hasta hace 3-4 años, la comunidad de investigación de aprendizaje automático disfrutaba de un permiso tácito (a menudo explícito) para explotar material protegido por derechos de autor en el curso del desarrollo de nuevos sistemas; desde que estos sistemas no eran aún exitosos, en términos de ser maduros o viables comercialmente, los resultados eran, en todos los sentidos, académicos.
En ese período, el éxito repentino de una nueva generación de modelos de lenguaje grande basados en difusión (LLMs, como ChatGPT y Claude) y modelos de visión-lenguaje (VLMs, como Sora) señaló que estos hilos de investigación abstractos y hasta entonces ‘inofensivos’ se habían desarrollado en viabilidad comercial, y habían superado su ‘pase libre’, en lo que respecta a la explotación de la propiedad intelectual de otras personas.
A partir de ahora, los titulares de derechos buscarán una participación en los frutos de los sistemas de IA entrenados en gran medida o en parte con sus datos protegidos por derechos de autor, lo que lleva a una avalancha continua de casos legales que requiere algun esfuerzo para seguirles el ritmo.

Aquí limitado solo a los casos presentados en los EE. UU., nuevos casos surgen a un ritmo frenético en los Estados Unidos y más allá. Fuente
Exigiendo un ‘almuerzo gratis’
El compromiso financiero actualmente en curso en cuanto a la infraestructura de IA ha sido sostenido por algunas voces como un esfuerzo para enterrar la IA ‘peligrosa para los derechos de autor’ tan profundamente en la economía de la sociedad que se convierta no solo en ‘demasiado grande para fallar’, sino también en ‘demasiado poderosa para ser demandada’ – o demasiado poderosa, al menos, para que las demandas exitosas puedan permitirse desbaratar la revolución.
Hacia este sentimiento general, el actual presidente de los Estados Unidos está convirtiendo en política su visión de que ‘No se puede esperar tener un programa de IA exitoso cuando cada artículo, libro o cualquier otra cosa que hayas leído o estudiado, se supone que debes pagar por ello’.
¿Realmente? Nada remotamente similar o comparable ha ocurrido en la era industrial occidental, y esto representa un movimiento que se frota severamente contra la cultura tradicional de los EE. UU. de litigio y reparación; quizás las posiciones más similares son la expiración obligatoria de las patentes de medicamentos después de 20 años (que en sí frecuentemente está bajo ataque), y la limitación de las expectativas de privacidad en lugares públicos.
Sin embargo, los tiempos cambian; en ausencia de cualquier garantía de que la tendencia actual hacia el ‘dominio eminente’ contra las protecciones de IP no fracasará, o de lo contrario se revertirá más tarde, hay varios enfoques secundarios que se están convirtiendo en práctica estándar en el desarrollo de sistemas de IA, y el tratamiento de los controvertidos datos de entrenamiento que lo impulsan.
Conjuntos de datos por proxy
Uno de estos enfoques toma un enfoque notablemente similar a la defensa (no siempre exitosa) de los sitios de lista de torrents que no almacenan material controvertido – o cualquier material en absoluto.
Además de evitar la necesidad de almacenar y servir grandes cantidades de datos de imagen o video mínimamente comprimibles, las colecciones de este tipo permiten una actualización rápida – como la eliminación de material a solicitud de los titulares de derechos de autor – y versionado.
Al igual que los torrents son solo señales de dónde se puede encontrar material protegido por derechos de autor, una serie de conjuntos de datos muy influyentes son en sí mismos solo listas de estilo ‘señalador’ de datos existentes; si el usuario final desea usar estas listas como una lista de descarga para su propio conjunto de datos, eso es asunto suyo, en lo que respecta a la responsabilidad de los curadores.
Entre ellos se encuentra el conjunto de datos Conceptual 12M de Google Research, que proporciona subtítulos para imágenes, pero solo señala ubicaciones en la web donde existen estas imágenes (o existían en el momento de la curación):

Dos ejemplos del conjunto de datos Conceptual 12M de Google Research. Fuente
Otro ejemplo destacado, y que ahora tiene un reclamo válido a la reverencia en la historia de la IA, es el conjunto de datos LAION que facilitó el advenimiento del sistema generativo de difusión estable en 2022 – el primer sistema de este tipo en ofrecer imágenes generativas de código abierto potentes a los usuarios finales, justo cuando los sistemas propietarios parecían establecer estos servicios como un dominio comercial puramente acotado:

Una de las muchas variantes del proyecto LAION, con obras de arte modernas y protegidas por derechos de autor. Fuente
En muchos casos, los tamaños de archivo grandes de algunas de estas colecciones de ‘señaladores’ indican la inclusión de contenido de imagen en un archivo descargable y alojado; sin embargo, los tamaños de descarga no triviales a menudo se deben al gran volumen de contenido de texto, y sometimes la inclusión de embeddings extraídos o características – resúmenes o nodos derivados de contenido aplicable de otra manera extraído de los datos de origen durante el proceso de entrenamiento.
El premio de video
Los conjuntos de datos de video presentan un caso aún más fuerte para el enfoque de ‘conjunto de datos por proxy’ o de señalador, ya que el gran volumen de datos de almacenamiento requeridos para agregar un número significativo y útil de videos en una sola colección descargable es prohibitivo, y un método ‘distribuido’ es deseable.
Sin embargo, en ambos casos – pero particularmente con video – las URL de origen descargable representan datos que necesitarán una atención significativa adicional antes de ser utilizados en procesos de entrenamiento. Tanto las imágenes como los videos necesitarán ser redimensionados, o bien se tomarán decisiones de recorte, para crear muestras que se ajusten al espacio de GPU disponible. Incluso los videos muy submuestreados también requerirán cortes a longitudes muy cortas, como 3-5 segundos, típicamente.
Conjuntos de datos de video notables que utilizan referencias a videos en línea (en lugar de la curación y el empaquetado directo de video) incluyen el conjunto de datos de Kinetics Human Action Video Dataset de Google, y la colección YouTube-8M de la empresa de búsqueda, que utiliza anotación de segmentos para indicar cómo tratar cada video una vez descargado – pero que una vez más deja al usuario final obtener los videos de las URL suministradas.
Cerrado y abierto
Finalmente, en esta categoría, los datos de VFX ‘abiertos’ pueden generarse con plataformas cerradas que posteriormente publican y ponen a disposición el conjunto de datos resultante. Es razonable preguntarse por qué sucede esto, y considerar si puede ser porque la empresa originadora desea sanear un modelo de aguas arriba no amigable con la IP, para su propio uso; o que un conjunto de datos ‘lavado’ fue solicitado desde fuera.
Un caso de ‘lavado generacional’ es, argumentablemente, el conjunto de datos Omni-VFX, que incorpora muchos puntos de datos del conjunto de datos Open-VFX (que a su vez hace referencia a muchas plataformas cerradas y semicerradas, como Pika y PixVerse).
Para ser honesto, Omni-VFX ni siquiera está intentando:

En el conjunto de datos de código abierto Omni-VFX, una cara familiar. Fuente
Responsabilidad ancestral
El segundo enfoque principal para el lavado de IP es a través del uso de material con derechos de autor a una o muchas eliminaciones. Uno de los métodos en esta categoría es el uso de datos sintéticos que han sido entrenados, en algún punto aguas arriba, con datos con derechos de autor. En tales casos, más particularmente donde los datos sintéticos pueden obtener resultados que parecen auténticos, el trabajo con derechos de autor suministra transformaciones que no podrían razonablemente adivinarse o aproximarse mediante modelos generales del mundo o modelos no especializados.
Esto es enfáticamente el caso donde los sistemas generativos de video requieren generar ‘eventos imposibles’ y eventos que caerían generalmente en la categoría de ‘efectos visuales’ (VFX).
De hecho, lo que trajo este tema a colación fue el último de una serie de artículos de investigación que ofrecen la capacidad de ‘abstraer’ diversos tipos de efectos visuales, como producir haces de láser de partes improbables del cuerpo, ya sea habiendo sido entrenados en clips de VFX personalizados o ‘de código abierto’ (en lugar de la fuente más obvia, como los muy costosos disparos de VFX encontrados en la salida de la universo cinematográfico de Marvel):
Ejemplos del sitio web EffectMaker, en el que la ‘acción’ en el clip de origen (lejos a la izquierda) se aplica a una imagen de origen (centro). Fuente
Los ejemplos anteriores provienen de la página del proyecto para el proyecto EffectMaker. EffectMaker no es ni siquiera el primer ofrecimiento este año que busca extraer dinámicas de VFX de un clip de video y transponerlas a un clip nuevo, y de hecho esto se está convirtiendo en una subtarea discreta en la investigación de VFX de IA*.
Conscientes de que los gigantes de los medios como Marvel tienen una mayor probabilidad de ganar casos legales sobre IP (incluso en el clima mencionado de ‘tolerancia forzada’), las empresas de efectos visuales y las startups están yendo actualmente a grandes longitudes para asegurarse de que sus marcos de VFX generativos estén libres de la IP corporativa de otras empresas.
Primero entre ellos es Meta, que ha sido informado en el subreddit r/vfx de haber ido a una racha de contratación bien compensada en el invierno de 2026, ofreciendo a los artistas de VFX trabajo para entrenar modelos de IA para producir disparos de efectos visuales de nivel de Hollywood. Aunque el pago no se especificó en varios mensajes, uno lo describió como ‘dinero de jubilación’.
Sigue el dinero
Sin embargo, uno se pregunta cuánto dinero incluso los como Meta están dispuestos a pagar por una verdadera diversidad y abundancia de disparos de VFX ad hoc, dado que el costo promedio de un solo disparo de VFX para una película de blockbuster es de alrededor de $42,000 USD – y muchos vienen en mucho más.
Además, es razonable suponer que los modelos de IA generativos de VFX personalizados accederán a la demanda popular, incluidos varios efectos estándar de tropos de las categorías de películas más populares y costosas.
Aparte del punto de vista de que los profesionales de VFX ‘restantes’ podrían terminar recreando disparos que trabajaron en un catálogo de películas existente† – lo que en sí contextualiza el trabajo de conjunto de datos personalizado como imitativo – no hay garantía de que estas muestras nuevas y costosas terminen entrenadas ‘desde cero’ en una arquitectura completamente nueva.
De hecho, si estas recreaciones se desvían en módulos adjuntos como LoRAs, que dependen de un modelo base, entonces el proceso es solo tan defensible como el modelo base es ‘limpio de IP’ – y no muchos lo son.
De manera similar, si el ‘nuevo’ proceso utiliza otras técnicas ‘híbridas’ como ajuste fino, donde el valor del efecto visual depende de modelos, priores o embeddings de colecciones o modelos anteriores de integridad no sustentada, la originalidad del trabajo es arguablemente cosmética, y está sujeta a desafío.
Misiones imposibles
El dominio de la salida de VFX es un caso de estudio particularmente interesante en cuanto al posible lavado de IP en los conjuntos de datos de IA, ya que los disparos de efectos visuales a menudo representan ‘cosas imposibles’ para las que no habrá alternativas de código abierto disponibles.
Por ejemplo, si se quiere entrenar un modelo para producir haces de láser humanos, se necesitará entrenar con clips de VFX, robados o encargados; cosas como esas no suceden en ningún otro lugar.
Incluso en el caso de otros tipos de desastres naturales, como inundaciones dramáticas, el material de origen disponible en el mundo real es poco probable que pueda reproducir puntos de vista dramáticos sobre eventos catastróficos, porque (con algunas excepciones) la gente no suele transmitir en vivo desde lugares catastróficos. Por lo tanto, ‘vistas geniales’ sobre desastres son raros en los conjuntos de datos del mundo real, y cualquier modelo de IA que pueda generarlos probablemente obtuvo la información de otra parte.
La mayoría de las tareas de flujo de trabajo de IA deseables no tienen este nivel de especificidad, y en tales casos la ofuscamiento de los beneficios de los datos protegidos por IP puede no requerir nearly tanto esfuerzo.
Conclusión: Red entrelazada
Solo aquellos que han utilizado la IA generativa extensivamente y durante un período sostenido comprenderán instintivamente que dichos sistemas luchan para combinar múltiples conceptos cuando no existen ejemplos comparables en sus datos de entrenamiento.
Esta limitación se conoce como entrelazamiento, en el que las diversas facetas de los conceptos entrenados tienden a agruparse con elementos relacionados, en lugar de descomponerse en bloques de construcción útiles que puedan ser dispuestos en cualquier nueva configuración que el usuario pueda desear.
El entrelazamiento es un pozo de gravedad arquitectónica que es prácticamente imposible de escapar, al menos para los enfoques basados en difusión que caracterizan a todos los marcos de IA de generación actual. Sin embargo, puede ser que surjan nuevos enfoques en los próximos años que sean mejores para discretizar los conceptos entrenados para que puedan ser unidos más hábilmente, y ofrezcan menos indicaciones sobre su procedencia.
* No hago acusaciones contra EffectMaker, pero comento aquí sobre la generalidad de una práctica emergente en la investigación de video de IA.
† Porque estos disparos, en este tipo de películas, han generado y siguen generando dinero.
Publicado por primera vez el lunes 16 de marzo de 2026
Góc nhìn Anderson
IP-Washing-Methoden in KI

Wenn es einen rechtlichen Vergeltungsangriff über die Verwendung von geistigem Eigentum bei der Ausbildung von KI gibt, gibt es auch mehrere Methoden, um eine solche Verwendung zu verschleiern.
Meinung Die derzeitige, rasch voranschreitende Revolution in generativer KI entfaltet sich in der rechtlich prekärsten Umgebung, die jede transformative technologische Entwicklung seit dem 19. Jahrhundert begleitet hat.
Bis vor 3-4 Jahren genoss die Maschinenlernforschungsgemeinschaft eine stillschweigende (oft explizite) Erlaubnis, urheberrechtlich geschütztes Material bei der Entwicklung neuer Systeme auszunutzen; da diese Systeme noch nicht erfolgreich waren, im Sinne von reif oder kommerziell tragfähig, waren die Ergebnisse in jedem Sinne akademisch.
In diesem Zeitraum signalisierte der plötzliche Erfolg einer neuen Generation von diffusionbasierten Large Language Models (LLMs, wie ChatGPT und Claude) und Vision-Language-Modellen (VLMs, wie Sora) , dass diese abstrakten und bisher “harmlosen” Forschungsstränge sich zu kommerzieller Tragfähigkeit entwickelt hatten und ihre “Freifahrtschein”-Ära, was die Ausnutzung von geistigem Eigentum anderer betraf, überwunden hatten.
Von nun an würden Rechteinhaber eine Beteiligung an den Früchten von KI-Systemen fordern, die größtenteils oder teilweise auf ihren urheberrechtlich geschützten Daten trainiert wurden, was zu einer anhaltenden Lawine von Rechtsfällen führte, die einige Anstrengung erfordert, um sie nur zu verfolgen.

Hier begrenzt nur auf in den USA eingereichte Fälle, treten neue Fälle in den Vereinigten Staaten und darüber hinaus mit atemberaubender Geschwindigkeit auf. Quelle
Mandat für ein “kostenloses Mittagessen”
Die finanzielle Verpflichtung derzeit im Gange in Bezug auf AI-Infrastruktur wurde von einigen Stimmen als Versuch positioniert, “urheberrechtlich gefährdete” KI so tief in die Wirtschaft der Gesellschaft zu verankern, dass sie nicht nur “zu groß, um zu scheitern”, sondern auch “zu mächtig, um verklagt zu werden” wird – oder zumindest so mächtig, dass erfolgreiche Klagen nicht zugelassen werden könnten, die Revolution zu stören.
In dieser allgemeinen Richtung verpflichtet der derzeitige Präsident der Vereinigten Staaten seine Meinung in die Politik seine Ansicht, dass ‘Man nicht erwarten kann, ein erfolgreiches KI-Programm zu haben, wenn man für jeden einzelnen Artikel, jedes Buch oder alles andere, was man gelesen oder studiert hat, bezahlen muss’.
Wirklich? Nichts Ähnliches oder Vergleichbares ist im westlichen industriellen Zeitalter vorgekommen, und dies stellt eine Bewegung dar, die sich stark gegen die traditionelle US-Kultur von Klagen und Wiedergutmachung reibt; vielleicht sind die nächsten ähnlichen Positionen die obligatorische Verjährung von Medikamentenpatenten nach 20 Jahren (die selbst häufig angegriffen wird), und die Einschränkung der Erwartungen an Privatsphäre in öffentlichen Orten.
Jedoch ändern sich die Zeiten; in Abwesenheit jeglicher Garantie, dass die derzeitige Tendenz zu “Eminent Domain” gegen urheberrechtliche Schutzmaßnahmen nicht versagen oder später umgekehrt wird, gibt es mehrere sekundäre Ansätze, die in der Entwicklung von KI-Systemen und der Behandlung der umstrittenen Trainingsdaten, die sie antreiben, zur Standardpraxis werden.
Datensätze per Proxy
Ein Ansatz dieser Art ähnelt der (nicht immer erfolgreichen) Verteidigung von Torrent-Listen-Seiten, die behaupten, dass sie tatsächlich kein umstrittenes Material hosten – oder überhaupt irgendein Material.
Abgesehen von der Vermeidung der Notwendigkeit, große Mengen an minimally komprimierbaren Bild- oder Videodaten zu speichern und bereitzustellen, ermöglichen Sammlungen dieser Art eine schnelle Aktualisierung – wie die Entfernung von Material auf Anfrage der Urheberrechtsinhaber – und Versionierung.
Genau wie Torrents nur Wegweiser zu Orten sind, an denen urheberrechtlich geschütztes Material gefunden werden kann, sind eine Reihe von hoch einflussreichen Datensätzen in sich selbst nur “Zeiger”-Listen von existierendem Datenmaterial; wenn der Endbenutzer diese Listen als Download-Liste für seinen eigenen Datensatz verwenden möchte, liegt dies in der Verantwortung des Kurators.
Zu diesen gehören Google Researchs Conceptual 12M-Datensatz, der Bildunterschriften bereitstellt, aber nur auf Orte im Internet verweist, an denen diese Bilder existieren (oder zum Zeitpunkt der Kuratierung existierten):

Zwei Beispiele aus Google Researchs Conceptual 12M-Kuratierung. Quelle
Ein weiteres prominentes Beispiel, das nun einen gültigen Anspruch auf Reverenz in der Geschichte der KI hat, ist der LAION-Datensatz, der den Aufstieg des Stable-Diffusion-Generierungs-Systems im Jahr 2022 ermöglichte – das erste solche Framework, das leistungsfähige Open-Source-Generierungs-Bilder an Endbenutzer anbietet, während proprietäre Systeme scheinbar darauf aus waren, solche Dienste als rein abgegrenzten, kommerziellen Bereich zu etablieren:

Eine der vielen Varianten des LAION-Projekts, mit modernen und urheberrechtlich geschützten Kunstwerken. Quelle
In vielen Fällen zeigt die hohe Dateigröße einiger dieser “Zeiger”-Sammlungen an, dass Bildinhalte in einer herunterladbaren und gehosteten Datei enthalten sind; jedoch sind die nicht-trivialen Dateigrößen oft auf die hohe Menge an Textinhalten und manchmal die Einbeziehung von extrahierten Embeddings oder Funktionen – abgeleitete Zusammenfassungen oder Knoten von ansonsten anwendbarem Inhalt, der während des Trainingsprozesses aus den Quelldaten extrahiert wird.
Das Video-Prämie
Videodatensätze stellen einen noch stärkeren Fall für den “Datensatz-per-Proxy”- oder Zeiger-Ansatz dar, da die hohe Menge an Speicherdaten, die erforderlich ist, um eine bedeutende und nützliche Anzahl von Videos in eine einzelne herunterladbare Sammlung zu aggregieren, prohibitiv ist und ein “verteilter” Ansatz wünschenswert ist.
Jedoch ist in beiden Fällen – aber insbesondere bei Video – der herunterladbare Quell-URL Daten dar, die vor ihrer Verwendung in Trainingsprozessen erhebliche weitere Aufmerksamkeit erfordern werden. Sowohl Bilder als auch Videos müssen neu skaliert oder Beschlüsse zur Bildbearbeitung getroffen werden, um Proben zu erstellen, die in verfügbaren GPU-Speicher passen. Selbst ernsthaft heruntergesamplete Videos erfordern auch eine Bearbeitung auf sehr kurze Längen, wie 3-5 Sekunden, typischerweise.
Bemerkenswerte Videodatensätze, die Verweise auf Online-Videos (anstatt der Kuratierung und direkten Verpackung von Video) verwenden, sind Google’s Kinetics Human Action Video Dataset und die Sammlung von Google YouTube-8M, die Segment-Annotierung verwendet, um anzuzeigen, wie jedes Video nach dem Herunterladen behandelt werden soll – aber die dem Endbenutzer überlässt, die Videos von den bereitgestellten URLs zu erhalten.
Nahe und Offen
Schließlich, in dieser Kategorie, kann “offenes” VFX-Datenmaterial mit geschlossenen Plattformen generiert werden, die anschließend die resultierende Datensammlung veröffentlichen und bereitstellen. Es ist vernünftig, sich zu fragen, warum dies geschieht und zu überlegen, ob dies vielleicht der Fall ist, weil das ursprüngliche Unternehmen das IP-unfreundliche Upstream-Modell für den eigenen Gebrauch sanieren möchte; oder dass ein “gewaschener” Satz von außen angefordert wurde.
Ein solcher Fall von “generationaler Waschung” ist, argumentierbar, die Omni-VFX-Datensammlung, die viele Datenpunkte aus der Open-VFX-Datensammlung (die selbst viele geschlossene und halb-offene Plattformen wie Pika und PixVerse referenziert) enthält.
Um ehrlich zu sein, Omni-VFX versucht nicht einmal wirklich:

In der Open-Source-Omni-VFX-Datensammlung, ein vertrautes Gesicht. Quelle
Urhäberrechtliche Haftung
Der zweite große Ansatz zur IP-Waschung ist durch die Verwendung von urheberrechtlich geschütztem Material in einem oder mehreren Entfernungen. Eine der Methoden in dieser Kategorie ist die Verwendung von synthetischem Datenmaterial, das zu einem bestimmten Zeitpunkt upstream auf urheberrechtlich geschütztem Datenmaterial trainiert wurde. In solchen Fällen, insbesondere wenn synthetisches Datenmaterial authentisch aussehende Ergebnisse liefern kann, liefert urheberrechtlich geschütztes Werk Umwandlungen, die nicht vernünftigerweise erraten oder approximiert werden könnten durch allgemeine Weltmodelle oder nicht spezialisierte Modelle.
Dies ist emphatisch der Fall, wenn generative Videosysteme erforderlich sind, um “unmögliche” Ereignisse zu generieren und Ereignisse, die allgemein in die Kategorie “Visuelle Effekte” (VFX) fallen.
Tatsächlich, was dieses Thema ins Bewusstsein rief, war die neueste in einer Reihe von Forschungsarbeiten, die die Fähigkeit bieten, “diverse Arten von visuellen Effekten zu abstrahieren”, wie die Erzeugung von Laserstrahlen aus unwahrscheinlichen Körperteilen, entweder durch das Training auf maßgeschneiderten oder “Open-Source”-VFX-Clips (anstatt der offensichtlicheren Quelle, wie den sehr teuren VFX-Shots in der Marvel-Kinematografie):
Beispiele von der EffectMaker-Website, wobei die “Aktion” im Quellclip (links) auf ein Quellbild (Mitte) angewendet wird. Quelle
Die obigen Beispiele stammen von der Projektseite für das EffectMaker-Projekt. EffectMaker ist nicht einmal der erste, der dies in diesem Jahr anbietet, der versucht, VFX-Dynamiken aus einem Videoclip zu extrahieren und in einen neuen Clip zu übertragen, und tatsächlich wird dies zu einer separaten Aufgabe in der KI-VFX-Forschung*.
Bewusst, dass Medienriesen wie Marvel eine höhere Chance haben, Rechtsfälle über IP (auch in der erwähnten Klima der “erzwungenen Toleranz”) zu gewinnen, gehen visuelle Effekt-Unternehmen und Start-ups derzeit zu bemerkenswerten Längen, um sicherzustellen, dass ihre generativen VFX-Rahmenwerke frei von korporativem IP anderer Unternehmen sind.
Vor allem ist Meta, das gemeldet wurde auf dem r/vfx-Subreddit, um eine gut bezahlte Winter-Einstellungs-Kampagne im Jahr 2026 durchzuführen, VFX-Künstlern Arbeit anbietend, um AI-Modelle zu trainieren, um Hollywood-Niveau-Visuelleffekt-Shots auszugeben. Obwohl die Bezahlung in verschiedenen Posts nicht spezifiziert wurde, beschrieb einer es als “Renten-Geld”.
Folge dem Geld
Jedoch muss man sich fragen, wie viel Geld sogar Unternehmen wie Meta bereit sind, für eine wahre Vielfalt und Fülle von ad hoc-VFX-Shots zu zahlen, angesichts der Tatsache, dass der durchschnittliche einzelne VFX-Shot für einen Blockbuster-Film rund 42.000 USD kostet – und viele kommen viel höher.
Weiterhin ist es vernünftig, anzunehmen, dass maßgeschneiderte VFX-generierende AI-Modelle der Popularität folgen werden, einschließlich verschiedener Standard-Effekt-Tropen aus den beliebtesten und teuersten Kategorien von Filmen.
Abgesehen von der Tatsache, dass “verbleibende” VFX-Profis möglicherweise Shots neu erstellen, an denen sie für eine bestehende Film-Sammlung gearbeitet haben† – was in sich selbst den “maßgeschneiderten” Datensatz als imitativ kontextualisiert – gibt es in jedem Fall keine Garantie, dass diese teuren neuen Proben “von Null” in einer brandneuen Architektur trainiert werden.
Tatsächlich, wenn solche Re-Kreationen in Nebenmodule wie LoRAs umgeleitet werden, die auf einem Basis-Modell angewiesen sind, dann ist der Prozess nur so vertretbar, wie das Basis-Modell “IP-sauber” ist – und nicht viele sind.
Ähnlich, wenn der “neue” Prozess andere “hybride” Techniken wie Feinabstimmung verwendet, bei der der Wert des visuellen Effekts von Modellen, Priors oder Embeddings von älteren Sammlungen oder Modellen von unbestätigter Integrität abhängt, ist die Originalität der Arbeit argwöhnisch und anfällig für Herausforderungen.
Unmögliche Missionen
Das Gebiet von VFX-Ausgaben ist ein besonders interessanter Fall-Studie in Bezug auf potenzielle IP-Waschung in KI-Datensätzen, da visuelle Effekt-Shots oft “unmögliche” Dinge darstellen, für die es keine Open-Source-Alternativen gibt.
Zum Beispiel, wenn man ein Modell trainieren möchte, um menschliche Laserstrahlen zu produzieren, muss man auf VFX-Clips trainieren, gestohlen oder in Auftrag gegeben; so etwas passiert nirgendwo anders.
Sogar im Fall anderer Arten von Naturkatastrophen, wie dramatischer Überschwemmungen, ist verfügbares Quellenmaterial in der realen Welt unwahrscheinlich in der Lage, dramatische Perspektiven auf katastrophale Ereignisse zu reproduzieren, da (mit einigen Ausnahmen) Menschen normalerweise nicht live aus katastrophalen Orten streamen. Daher sind “coole Ansichten” auf Katastrophen in realen Datensätzen selten, und jedes KI-Modell, das sie generieren kann, hat diese Informationen wahrscheinlich woandersher.
Schlussfolgerung: Verwickeltes Netz
Nur diejenigen, die generative KI ausgiebig und über einen längeren Zeitraum hinweg verwendet haben, werden instinktiv verstehen, dass solche Systeme Schwierigkeiten haben, wenn sie multiple Konzepte kombinieren müssen, wenn keine vergleichbaren Beispiele in ihren Trainingsdaten existieren.
Diese Einschränkung ist als Verwickelung bekannt, bei der die verschiedenen Aspekte der trainierten Konzepte tendenziell mit verwandten Elementen clusteren, anstatt sich in handliche, Lego-ähnliche Bausteine zu zerlegen, die in jede neue Konfiguration angeordnet werden können, die der Benutzer wünscht.
Verwickelung ist ein architektonischer Schwerkraft-Brunnenschacht, der ziemlich unmöglich zu entkommen ist, zumindest für die diffusionbasierten Ansätze, die alle großen aktuellen KI-Rahmenwerke charakterisieren. Es kann jedoch sein, dass neue Ansätze in den nächsten Jahren auftauchen, die besser darin sind, trainierte Konzepte zu diskretisieren, so dass sie adäquater zusammengefügt werden können und weniger Hinweise auf ihre Herkunft liefern.
* Ich erhebe keine Anschuldigungen gegen EffectMaker, sondern kommentiere hier die Allgemeingültigkeit einer aufkommenden Praxis in der KI-Video-Forschung.
† Weil diese Shots, in diesen Arten von Filmen, Geld generiert und weiterhin generieren.
Erstveröffentlicht am Montag, den 16. März 2026
Góc nhìn Anderson
IP-Washing Methods in AI

知的財産権をめぐる法的対決がAIの利用において起こり得る場合、知的財産権の使用を隠す方法もいくつかあります。
意見 現在、急速に進化しているジェネレーティブAIの革命は、19世紀以来、どの変革的な技術的発展にも伴わなかった法的脆弱な環境で進行しています。
3〜4年前まで、機械学習研究コミュニティは、IP保護された資料を新しいシステムの開発において利用することを黙示的(または明示的)に認められていました。なぜなら、これらのシステムはまだ成熟していなかったか、商業的に実用的なものではなかったからです。その結果は、すべての意味で学術的なものでした。
その期間に、新しい世代の拡散ベースの大規模言語モデル(LLM、例:ChatGPTやClaude)やビジョン言語モデル(VLM、例:Sora)の突然の成功は、これらの抽象的で無害だった研究の筋が商業的に実用的なものに成長し、IP保護された資料の利用に関する「無料パス」が終了したことを示しました。
今後、権利者は、著作権で保護されたまたはその他の保護されたデータで大部分または一部で訓練されたAIシステムの成果に対して利益を求めるでしょう。これにより、法的なケースの連鎖が生じ、追跡するのに一定の努力が必要になります。

ここでは米国で提起されたケースに限定していますが、米国およびその他の地域では、新しいケースが激しいペースで登場しています。 ソース
『無料ランチ』の義務付け
現在、AIを支えるインフラストラクチャーへの投資は、現在進行中です。いくつかの声は、これを「著作権の危険性のある」AIを経済社会に深く根付かせる試みと見なし、失敗することや訴訟によって革命が崩壊することを許すことができないほど、強大で権力を持ったものにすることを目的としたものと見ています。
この一般的な意見に向けて、アメリカ合衆国大統領は、政策に組み込む 彼の見解 を、「あなたが読んだり研究したりしたすべての記事、書籍、またはその他のものに対して支払う必要があると期待されることはできません」 と述べています。
本当に?西洋の産業革命時代にこれに似たまたは同等のことが起こったことはありません。これは、伝統的な米国の訴訟と補償の文化と大きく反するものです。最も近い立場は、医薬品特許の有効期間が20年後に必ず失効すること(これ自体が頻繁に攻撃される)と、プライバシーに関する期待の制限 です。
しかし、時勢は変わります。現在の「財産権」に対する「強制的寛容」の傾向が後で失敗したり逆転したりしないことを保証するものがない場合、AIシステムの開発と、訓練データの扱いにおいて、いくつかの二次的なアプローチが標準的な慣行になりつつあります。
代理データセット
これらのアプローチの1つは、(常に成功するとは限らない) トレントリストサイトの防御に似たアプローチを取ります。つまり、実際には何もホストしていないということです。
画像やビデオデータの大量の非圧縮可能なファイルを保存および提供する必要性を回避するだけでなく、これらのコレクションを使用すると、迅速な更新(著作権者の要望に応じて資料の削除など)やバージョニングが可能になります。
トレントは、IP保護された資料が見つかる場所を示すだけであるように、一部の非常に影響力のあるデータセットは、実際には「ポインタ」スタイルのリストであり、既存のデータです。如果エンドユーザーがこれらのリストを自分のデータセットのダウンロードリストとして使用したい場合は、それは彼ら自身の責任となります。
そのようなデータセットの1つは、Google Researchの Conceptual 12M です。これは、画像のキャプションを提供しますが、画像が存在する(またはカーセット時に存在した)ウェブ上の場所 を示すだけです。

Google ResearchのConceptual 12Mの例。 ソース
別の著名な例は、LAIONデータセット であり、2022年にStable Diffusionジェネレーティブシステム の出現を促しました。Stable Diffusionは、最初のオープンソースジェネレーティブ画像をエンドユーザーに提供するフレームワークでした。

LAIONプロジェクトのバリアントの1つ、現代の著作権付きアートワークを特集。 ソース
ビデオプレミアム
ビデオデータセットは、より強いケースを「代理」アプローチまたはポインタアプローチとして提示します。なぜなら、有意義で有用な数のビデオを1つのダウンロード可能なコレクションにまとめるために必要な大量のストレージデータは、禁止されています。分散型の方法が望ましいからです。
しかし、画像とビデオの両方の場合(特にビデオの場合)、ダウンロード可能なソースURLは、訓練プロセスで使用する前に大幅な注意が必要なデータを表します。画像とビデオの両方は、利用可能なGPUスペースに収まるように、サイズを変更する必要があります。さらに、ビデオの場合、3〜5秒の非常に短い長さにカットする必要があります。
注目すべきビデオデータセットの1つは、Googleの Kinetics Human Action Video Dataset であり、ビデオを直接カーセットおよびパッケージ化するのではなく、オンラインビデオへの参照を使用します。
クローズドとオープン
最後に、このカテゴリでは、オープンVFXデータは、クローズドプラットフォームで生成され、結果のデータセットが公開および利用可能になります。なぜこれが起こるのか、またはこれが起こる理由を考えることができ、発生源となる会社が、自身の使用のために、IPに友好的でないアップストリームモデルをサニタイズしたいと考えているのか、または「洗浄された」セットが外部から要求されたのかを考えることができます。
そのような「世代間の洗浄」の1つのケースは、Omni-VFXデータセット であり、Open-VFXデータセット の多くのデータポイントを含みます(これ自体が、PikaやPixVerseなどのクローズドおよびセミクローズドプラットフォームを参照します)。

オープンソースのOmni-VFXデータセットに含まれる、見慣れた顔。 ソース
先祖の責任
IP洗浄の2番目の主要なアプローチは、著作権保護された資料を1つまたは複数の段階で使用することです。このカテゴリの方法の1つは、合成データ を使用することです。これは、どこかで著作権保護されたデータで訓練されています。特に、合成データが本物のような結果を得ることができる場合、著作権保護された作品は、一般的な世界モデルまたは専門化されていないモデルによって推測または近似できない変換を提供します。
これは、特にジェネレーティブビデオシステムが「不可能な」イベントや、一般的に「視覚効果」(VFX)のカテゴリに入るイベントを生成する必要がある場合に当てはまります。
実際、話題を引き出したのは、微調整 などの「ハイブリッド」テクニックを使用して、さまざまな種類の視覚効果(例:身体の不可能な部分からレーザービームを生成する)を抽出して、新しいクリップに転送する能力を提供する最新の研究論文のシリーズでした。
EffectMakerのウェブサイトからの例。ソース – EffectMaker
上記の例は、EffectMakerプロジェクト のプロジェクトページから来ています。EffectMakerは、今年これを提供する最初のものではありません。実際、これはAIのVFX研究における離散的なサブタスクになっています。
メディアの大手企業であるマーベルは、IPに関する法的なケースを勝つ可能性が高いことを認識して、視覚効果会社やスタートアップは、ジェネレーティブVFXフレームワークが他社の企業IPから自由であることを保証するために、多大な努力を払っています。
最も注目すべきのは、Metaです。Metaは、r/vfxのサブレディット で報告されているように、2026年冬に、VFXアーティストに、ハリウッドレベルの視覚効果ショットを出力するAIモデルを訓練する仕事を、多大な報酬で提供しています。報酬はさまざまな投稿で指定されていませんが、1つの投稿では「退職金」と表現されています。
お金の流れを追え
しかし、メタのような大手企業が、真正な多様性と豊富さを持つアドホックVFXショットのためにいくらのお金を払う用意があるのか疑問に思う必要があります。なぜなら、ブロックバスター映画の平均的な1つのVFXショットのコストは、約42,000ドル であるからです。さらに多くのショットは、はるかに高価です。
さらに、ベースモデルが「IPクリーン」である限り、カスタムVFXショットを生成するAIモデルが、LoRAs などの付加モジュールに転用される可能性があることを考えると、これらの高価な新しいサンプルが「ゼロから」新しいアーキテクチャで訓練される可能性は低いです。
不可能な使命
VFXの出力のドメインは、潜在的なAIデータセットのIP洗浄に関する特に興味深いケーススタディです。なぜなら、視覚効果ショットは、オープンソースの代替品が利用できない 「不可能な」ものを表現することが多いからです。
例えば、建物の解体は、さまざまなパブリックドメインまたはその他の安価なストッククリップからジェネレーティブモデルに訓練できますが、人間のレーザービームを生成するモデルを訓練したい場合は、盗まれたり依頼されたりしたVFXクリップで訓練する必要があります。そういうことは他では起こりません。
自然災害の場合も、ドラマティックな洪水など、利用可能な実世界のソース資料は、劇的なPOVの災害イベントを再現することができません。なぜなら、(一部の例外 を除いて)人々は、通常、災害の場所からライブストリーミングを行わないからです。したがって、「クールなビュー」は実世界のデータセットでは珍しく、ドラマティックなPOVを生成できるAIモデルは、情報を他の場所から取得した可能性があります。
ほとんどの望ましいAIタスクフローは、IP保護されたデータの利点を隠すためにこれほど多くの努力を必要としません。
結論:絡み合ったウェブ
ジェネレーティブAIを広範囲にわたって使用し、継続的に使用したことがある人は、こうしたシステムが、訓練データに相当する例がない場合、複数の概念を組み合わせるのに苦労することを直感的に理解するでしょう。
この制限は、エンタングルメント と呼ばれ、訓練された概念のさまざまな側面が、関連する要素とともにクラスター化する傾向があり、ユーザーが望む新しい構成に配置できる便利なレゴブロックのようなものにはなりません。
エンタングルメントは、現在の主要なgenAIフレームワークの特徴である拡散ベースアプローチの特徴である、逃れることがほとんど不可能なアーキテクチャの重力の井戸です。ただし、訓練された概念をより巧みに組み合わせることができる新しいアプローチが、次の数年間に登場する可能性があります。
* 私はEffectMakerに対して非難を加えるのではなく、AIビデオ研究における新たな実践の一般性についてコメントしています。
† これらのショットは、これらのタイプの映画でお金を稼ぎ続けているからです。
2026年3月16日月曜日に最初に公開されました。
Góc nhìn Anderson
IP 세척 방법들에 대한 인공지능

인공지능 훈련에서 지적 재산권을 사용하는 것에 대한 법적 대가가 있을 수 있지만, 이러한 사용을 모호하게 하는 여러 방법이 있습니다.
의견 현재 진행 중인 생성적 인공지능의 혁신은 19세기 이후로 가장 법적으로 위험한 환경에서 진행되고 있습니다 .
4년 전까지 기계 학습 연구 커뮤니티는 IP 보호 자료를 새로운 시스템 개발 과정에서 사용할 수 있는 묵시적(종종 명시적) 허가를 받았습니다. 이러한 시스템은まだ 성숙하지 않았거나 상업적으로 비용 효율적이지 않았기 때문에, 결과는 모든 의미에서 학술적이었습니다.
그 기간 동안, 새로운 세대의 확산 기반 대형 언어 모델(LLM과 같은 ChatGPT 및 Claude)과 비전-언어 모델(VLM과 같은 Sora)의突然한 성공은 이러한 추상적이고 이전에 ‘해armless’한 연구가 상업적으로 비용 효율적이 되고, 지적 재산권을 사용하는 것에 대한 ‘자유 패스’를 넘어섰음을 나타냅니다.
지금부터, 권리 소유자는 자사의 저작권 또는 기타 보호 데이터를 사용하여 훈련된 인공지능 시스템의 결과에 대한 지분을 요구할 것입니다. 이는 계속되는 법적 소송을 가져오며, 이를 추적하기 위해 일부 노력이 필요합니다.
<img class=" wp-image-364027" src="https://www.unite.ai/wp-content/uploads/2026/03/copyright-claims.jpg" alt="미국에서 제기된 소송만으로 제한된 경우, 미국과 그 외의 지역에서 새로운 소송이出现하고 있습니다. 출처 – 출처
‘무료 점심’을 강요하는 것
현재 인공지능 인프라에 대한 금융 투자가 현재 진행 중입니다. 일부 목소리는 이것을 ‘저작권 위험’ 인공지능을 경제 사회에 너무 깊이 심어주어, 그것을 실패로 만들거나 성공적인 소송으로 뒤엎을 수 없도록 만들려는 시도라고 주장합니다.
이러한 일반적인 감정에 대해, 미국 현 대통령은 정책으로 자신의 견해를.committing하고 있습니다. ‘당신은 성공적인 인공지능 프로그램을 가질 수 있을 것으로 기대할 수 없습니다. 모든 기사, 책, 또는 다른 것을 읽거나 공부한 경우, 그것을 위해 지불해야 한다고 생각합니다’.
정말로? 서양 산업 시대에서 이러한 것과 비슷한 또는 비교할 수 있는 것이 발생한 적이 없습니다. 이것은 전통적인 미국의 소송과 배상 문화에 대해 심하게 마찰을 일으키는 운동입니다. 아마도 가장 가까운 유사한 위치는 의약 특허가 20년 후에 만료되는 것(자체적으로 자주 공격을 받습니다)과 공공 장소에서 개인 정보에 대한 기대에 대한 제한입니다.
그러나, 시대는 변합니다. 현재 지적 재산권 보호에 대한 ‘공용화’ 추세가 실패하거나 나중에 역전되지 않을 것이라는 보장이 없는 경우, 인공지능 시스템 개발과 그에 따른 훈련 데이터 처리에서 표준적인 관행이 되는 두 번째 접근 방식이 있습니다.
대리 데이터셋
이러한 접근 방식 중 하나는 토렌트 목록 사이트가 실제로 논란의 여지가 있는 자료를 호스팅하지 않는다는 방어와 유사한 접근 방식을 취합니다.
대용량 이미지 또는 비디오 데이터를 저장하고 제공할 필요를 피함으로써, 이러한 컬렉션은 빠른 업데이트를 허용합니다. 예를 들어, 저작권 소유자의 요청에 따라 자료를 제거하는 경우, 버전 관리를 허용합니다.
토렌트는 실제로 IP 보호 자료가 있는 위치를 가리키는 표식일 뿐입니다. 여러 영향력 있는 데이터셋은 자체적으로 ‘포인터’ 스타일의 목록으로, 사용자가 이러한 목록을 자신의 데이터셋으로 다운로드하려는 경우, 그것은 사용자의 책임입니다.
이러한 데이터셋 중 하나는 Google Research의 Conceptual 12M 데이터셋으로, 이미지에 대한 캡션을 제공하지만, 이미지 자체를 제공하지 않고, 이미지의 위치를 가리킵니다.

Google Research의 Conceptual 12M 컬렉션의 두 가지 예시. 출처
또 다른 유명한 예는 LAION 데이터셋으로, 2022년에 최초의 오픈 소스 생성적 이미지 프레임워크인 Stable Diffusion의 등장에 기여했습니다.
비디오 프리미엄
비디오 데이터셋은 ‘대리’ 또는 포인터 접근 방식에 대한 더욱 강력한 사례를 제공합니다. 왜냐하면 의미 있는 수의 비디오를 단일 다운로드 가능한 컬렉션으로 집계하기 위해 필요한 저장소 데이터의 양이 막대하기 때문입니다.
그러나, 이미지와 비디오 모두에서 다운로드 가능한 소스 URL은 훈련 과정에서 사용되기 전에 상당한 추가 주의가 필요할 것입니다. 이미지와 비디오 모두를 resizing하거나 cropping 결정을 내릴 필요가 있습니다.
닫힌 및 열린
마지막으로, 이 범주에서 ‘오픈’ VFX 데이터는 닫힌 플랫폼에서 생성될 수 있으며, 이후 결과 데이터셋을 발행하고 사용할 수 있습니다. 이것이 발생하는 이유를 궁금해하고, 이것이 발생하는 이유를 고려할 수 있습니다.
한 가지 경우는 Omni-VFX 데이터셋입니다. 이는 Open-VFX 데이터셋의 많은 데이터 포인트를 포함합니다.
조상 책임
IP 세척의 두 번째 주요 접근 방식은 저작권 자료를 한 단계 또는 여러 단계로 사용하는 것입니다. 이 범주에 속하는 방법 중 하나는 저작권 자료가 업스트림에서 훈련된 합성 데이터를 사용하는 것입니다.
이것은 특히 생성적 비디오 시스템이 ‘불가능한’ 이벤트를 생성해야 하는 경우에 해당됩니다. 이러한 경우, 저작권 작품은 일반적인 세계 모델이나 비전문 모델에 의해 합리적으로 추측되거나 근사할 수 없는 변환을 제공합니다.
추적하는 돈
그러나, 메타와 같은 회사들이 실제로 다양하고 풍부한 ad hoc VFX 샷에 대한 비용을 얼마나 지불할 의향이 있는지 궁금해집니다.
또한, 이러한 비용이 높은 샘플이 ‘제로’에서 훈련된 새로운 아키텍처에 사용될 것이라는 보장이 없습니다. 실제로, 이러한 재창조가 LoRAs와 같은 부가 모듈로 사용된다면, 이 과정은 기본 모델이 ‘IP-청소’인지 여부에 따라 방어할 수 있습니다.
불가능한 임무
VFX 출력의 도메인은 인공지능 데이터셋에서 잠재적인 IP 세척에 대한 관심사로 특히 흥미로운 사례 연구입니다. 왜냐하면 비주얼 이펙트 샷은 종종 ‘불가능한’ 것을 보여주기 때문입니다.
예를 들어, 건물의 파괴는 공개 도메인 또는 기타 저렴한 스톡 클립에서 생성적 모델로 훈련될 수 있습니다. 그러나, 인간의 레이저 빔을 생성하는 모델을 훈련시키려면, VFX 클립에서 훈련해야 합니다.
결론: 얽힌 웹
인공지능을 광범위하게 사용한 사람들은 이러한 시스템이 훈련 데이터에 해당하는 예가 없는 경우 여러 개념을 결합하는 데 어려움을 겪는다는 것을 직관적으로 이해할 것입니다.
이 제한은 얽힘으로 알려져 있으며, 훈련된 개념의 다양한 측면이 관련된 요소와 함께 클러스터링되는 경향이 있습니다.
얽힘은 현재의 주요 생성적 인공지능 프레임워크의 특징인 확산 기반 접근 방식에 대해 거의 탈출할 수 없는 건축적 중력 웰입니다. 그러나, 훈련된 개념을 더 유용하게 결합할 수 있도록 해주는 새로운 접근 방식이出现할 수 있습니다.
Góc nhìn Anderson
Métodos de Lavagem de IP em IA

Se houver um acerto de contas legal por vir sobre o uso de propriedade intelectual no treinamento de IA, também existem vários métodos para obscurecer tal uso.
Opinião A atual revolução em IA gerativa, que está se desenrolando rapidamente, está ocorrendo no ambiente legal mais precário que acompanhou qualquer desenvolvimento tecnológico transformador desde o século XIX.
Até 3-4 anos atrás, a comunidade de pesquisa em aprendizado de máquina desfrutava de uma licença tácita (freqüentemente explícita) para explorar material protegido por propriedade intelectual no curso do desenvolvimento de novos sistemas; desde que esses sistemas não eram ainda bem-sucedidos, em termos de serem maduros ou comercialmente viáveis, os resultados eram, em todos os sentidos, acadêmicos.
Nesse período, o sucesso súbito de uma nova geração de modelos de linguagem grandes baseados em difusão (LLMs, como ChatGPT e Claude) e modelos de visão-linguagem (VLMs, como Sora) sinalizou que essas linhas abstratas e, até então, ‘inofensivas’ de pesquisa haviam se desenvolvido em viabilidade comercial e ultrapassado seu ‘passe livre’, no que diz respeito à exploração da propriedade intelectual de outras pessoas.
A partir de agora, os titulares de direitos buscarão uma participação nos frutos dos sistemas de IA treinados em grande parte ou em parte com seus dados protegidos por direitos autorais ou de outra forma, levando a uma avalanche contínua de casos legais que requer algum esforço para apenas manter o controle.

Aqui limitado apenas a casos apresentados nos EUA, novos casos surgem a um ritmo frenético nos Estados Unidos e além. Fonte
Exigindo um ‘Almoço Grátis’
O compromisso financeiro atualmente ocorrendo em relação à infraestrutura de IA tem sido apontado por algumas vozes como um esforço para entranhar ‘IA perigosa em termos de direitos autorais’ tão profundamente na economia da sociedade que ela se torne não apenas ‘muito grande para falhar’, mas também ‘muito poderosa para ser processada’ – ou pelo menos tão poderosa que processos bem-sucedidos não pudessem ser permitidos para desestabilizar a revolução.
Nesse sentido geral, o atual presidente dos Estados Unidos está transformando em política sua visão de que ‘Você não pode ser esperado para ter um programa de IA bem-sucedido quando cada artigo, livro ou qualquer outra coisa que você leu ou estudou, você é suposto pagar por’.
Realmente? Nada remotamente semelhante ou comparável ocorreu na era industrial ocidental, e isso representa um movimento que se choca severamente contra a cultura tradicional dos EUA de litígio e reparação; talvez as posições mais semelhantes sejam a expiração obrigatória de patentes medicinais após 20 anos (em si frequentemente atacada), e a limitação das expectativas de privacidade em locais públicos.
No entanto, os tempos mudam; na ausência de qualquer garantia de que a tendência atual para ‘domínio eminente’ contra proteções de PI não falhará, ou seja, será revertida mais tarde, existem várias abordagens secundárias que estão se tornando prática padrão no desenvolvimento de sistemas de IA e no tratamento dos dados de treinamento muito contestados que os impulsionam.
Conjuntos de Dados por Procuração
Uma dessas abordagens adota uma abordagem surpreendentemente semelhante à defesa (nem sempre bem-sucedida) de sites de listagem de torrents, que alegam que não hospedam nenhum material contestado – ou qualquer material.
Além de evitar a necessidade de armazenar e servir grandes quantidades de dados de imagem ou vídeo minimamente compressíveis, coleções desse tipo permitem atualizações rápidas – como a remoção de material a pedido dos titulares de direitos autorais – e versionamento.
Assim como os torrents são apenas sinais de onde o material protegido por direitos autorais pode ser encontrado, vários conjuntos de dados muito influentes são, em si, apenas listas de estilo ‘ponteiro’ de dados existentes; se o usuário final deseja usar essas listas como uma lista de download para seu próprio conjunto de dados, isso é problema dele, no que diz respeito à responsabilidade dos curadores.
Entre esses, está o conjunto de dados Conceptual 12M da Google Research, que fornece legendas para imagens, mas apenas aponta para locais na web onde essas imagens existem (ou existiam no momento da curação):

Dois exemplos da curação do Conceptual 12M da Google Research. Fonte
Outro exemplo proeminente, e que agora tem uma reivindicação válida à reverência na história da IA, é o conjunto de dados LAION que facilitou o advento do sistema gerativo Stable Diffusion em 2022 – o primeiro sistema desse tipo a oferecer imagens gerativas de código aberto poderosas para os usuários finais, justo quando os sistemas proprietários pareciam estabelecer esses serviços como um domínio comercial puramente cercado:

Uma das muitas variantes do projeto LAION, apresentando obras de arte modernas e protegidas por direitos autorais. Fonte
Em muitos casos, os tamanhos de arquivo grandes dessas coleções de ‘ponteiro’ indicam a inclusão de conteúdo de imagem em um arquivo baixável e hospedado; no entanto, os tamanhos de download não triviais são freqüentemente devido ao grande volume de conteúdo de texto e, às vezes, à inclusão de embeddings extraídos ou recursos – resumos ou nós de conteúdo aplicável extraído dos dados de origem durante o processo de treinamento.
O Prêmio de Vídeo
Os conjuntos de dados de vídeo apresentam um caso ainda mais forte para a abordagem de ‘conjunto de dados por procuração’ ou ponteiro, desde que o volume de armazenamento de dados necessário para agregar um número significativo e útil de vídeos em uma coleção baixável é proibitivo, e um método ‘distribuído’ é desejável.
No entanto, em ambos os casos – mas particularmente com vídeo – as URLs de download de origem representam dados que precisarão de atenção significativa adicional antes de serem usados em processos de treinamento. Tanto imagens quanto vídeos precisarão ser redimensionados, ou decisões de corte feitas, para criar amostras que se encaixem no espaço de GPU disponível. Mesmo vídeos muito reduzidos também requererão corte para comprimentos muito curtos, como 3-5 segundos, tipicamente.
Conjuntos de dados de vídeo notáveis que usam referências a vídeos online (em vez da curação e embalagem direta de vídeo) incluem o conjunto de dados Kinetics Human Action Video Dataset da Google e a coleção YouTube-8M da gigante de busca, que usa anotação de segmento para indicar como tratar cada vídeo uma vez baixado – mas que, mais uma vez, deixa o usuário final para obter os vídeos a partir das URLs fornecidas.
Fechado e Aberto
Finalmente, nessa categoria, os dados de efeitos visuais ‘abertos’ podem ser gerados com plataformas fechadas que subsequentemente publicam e tornam disponível o conjunto de dados resultante. É razoável se perguntar por que isso acontece e considerar se pode ser porque a empresa originadora deseja sanitizar um modelo de montante não amigável em termos de PI, para seu próprio uso; ou que um conjunto ‘lavado’ foi solicitado de fora.
Um caso desses de ‘lavagem geracional’ é, argumentativamente, o conjunto de dados Omni-VFX, que incorpora muitos pontos de dados do conjunto de dados Open-VFX (que, por sua vez, referencia muitas plataformas fechadas e semi-fechadas, como Pika e PixVerse).
Para ser honesto, Omni-VFX nem mesmo está tentando muito:

No conjunto de dados de código aberto Omni-VFX, um rosto familiar. Fonte
Responsabilidade Ancestral
A segunda abordagem principal para a lavagem de PI é por meio do uso de material protegido por direitos autorais em um ou muitos removes. Um dos métodos nessa categoria é o uso de dados sintéticos que foram treinados, em algum ponto a montante, em dados protegidos por direitos autorais. Nesses casos, mais particularmente onde os dados sintéticos são capazes de obter resultados autênticos, o trabalho protegido por direitos autorais fornece transformações que não poderiam ser razoavelmente adivinhadas ou aproximadas por modelos gerais do mundo ou modelos não especializados.
Isso é enfaticamente o caso onde os sistemas de vídeo gerativos são necessários para gerar ‘eventos impossíveis’ e eventos que cairiam geralmente na categoria de ‘efeitos visuais’ (VFX).
De fato, o que trouxe esse tópico à mente foi o mais recente de uma série de artigos de pesquisa que oferecem a capacidade de ‘abstrair’ diversos tipos de efeitos visuais, como produzir raios laser de partes improváveis do corpo, seja por ter sido treinado em cliques de VFX personalizados ou ‘de código aberto’ (em vez da fonte mais óbvia, como os caros cliques de VFX encontrados na saída do universo cinematográfico da Marvel):
Exemplos do site EffectMaker, onde a ‘ação’ no clipe de origem (longe à esquerda) é aplicada a uma imagem de origem (centro). Fonte
Os exemplos acima vêm da página do projeto para o projeto EffectMaker. EffectMaker não é mesmo a primeira oferta desse ano que busca extrair dinâmicas de VFX de um clipe de vídeo e transpô-las para um clipe novo, e de fato isso está se tornando uma tarefa discreta na pesquisa de VFX de IA*.
Ciente de que gigantes da mídia, como a Marvel, têm uma chance maior do que a média de ganhar casos legais sobre PI (mesmo no clima mencionado de ‘tolerância forçada’), empresas de efeitos visuais e startups estão atualmente indo a grandes comprimentos para garantir que seus quadros de VFX gerativos estejam livres da PI corporativa de outras empresas.
Antes de tudo, está a Meta, que foi relatada no subreddit r/vfx para ter feito uma contratação bem remunerada no inverno para 2026, oferecendo aos artistas de VFX trabalho treinando modelos de IA para produzir efeitos visuais de nível de Hollywood. Embora o pagamento não tenha sido especificado em várias postagens, uma descreveu como ‘dinheiro de aposentadoria’.
Siga o Dinheiro
No entanto, é necessário se perguntar quanto dinheiro mesmo os likes da Meta estão dispostos a pagar por uma diversidade e abundância verdadeiras de cliques de VFX ad hoc, considerando que o custo médio de um único clique de VFX para um filme de blockbuster é de cerca de $42.000 USD – e muitos vêm em muito mais.
Além disso, é razoável supor que modelos de IA geradores de VFX personalizados accederão à demanda popular, incluindo vários efeitos padrão de tropos de categorias de filmes mais populares e caras.
Além da perspectiva de que profissionais de VFX ‘remanescentes’ possam acabar recriando cliques que trabalharam em um catálogo de filmes existente† – o que, por si só, contextualiza o trabalho de conjunto de dados personalizado como imitativo – não há garantia de que essas novas amostras caras acabem sendo treinadas ‘a partir do zero’ em uma nova arquitetura.
De fato, se essas recriações forem desviadas para módulos auxiliares como LoRAs, que dependem de um modelo base, então o processo é apenas tão defensável quanto o modelo base é ‘limpo em termos de PI’ – e não muitos são.
Da mesma forma, se o ‘novo’ processo usa outras técnicas ‘híbridas’ como ajuste fino, onde o valor do efeito visual depende de modelos, priors ou embeddings de coleções ou modelos mais antigos de integridade não comprovada, a originalidade do trabalho é, argumentativamente, cosmética e sujeita a desafio.
Missões Impossíveis
O domínio da saída de VFX é um caso de estudo particularmente interessante em relação à lavagem potencial de PI em conjuntos de dados de IA, desde que os cliques de efeitos visuais frequentemente retratam coisas ‘impossíveis’ para as quais nenhuma alternativa de código aberto estará disponível.
Por exemplo, enquanto a demolição de um prédio poderia ser treinada em um modelo gerativo a partir de vários clipes de estoque de domínio público ou de outra forma acessíveis, se você quiser treinar um modelo para produzir raios laser humanos, você precisará treinar em cliques de VFX, roubados ou encomendados; coisas como essas não acontecem em nenhum outro lugar.
Mesmo no caso de outros tipos de desastres naturais, como inundações dramáticas, o material de origem disponível é improvável de ser capaz de reproduzir pontos de vista dramáticos sobre eventos calamitosos, porque (com algumas exceções) as pessoas não costumam transmitir ao vivo de locais catastróficos. Portanto, ‘visões legais’ sobre desastres são raras em conjuntos de dados do mundo real, e qualquer modelo de IA que possa gerá-las provavelmente obteve as informações em outro lugar.
A maioria dos fluxos de tarefas de IA desejáveis não tem esse nível de especificidade, e nesses casos a obscuridade dos benefícios dos dados protegidos por direitos autorais pode não exigir quase tanto esforço.
Conclusão: Teia Entrelaçada
Apenas aqueles que usaram IA gerativa extensivamente e por um período prolongado entenderão instintivamente que esses sistemas lutam para combinar múltiplos conceitos quando não existem exemplos comparáveis em seus dados de treinamento.
Essa limitação é conhecida como entrelaçamento, no qual os vários aspectos dos conceitos treinados tendem a se agrupar com elementos relacionados, em vez de se decompor em blocos de construção úteis e fáceis de usar que possam ser arranjados em qualquer nova configuração que o usuário possa desejar.
O entrelaçamento é um poço de gravidade arquitetônica que é quase impossível de escapar, pelo menos para as abordagens baseadas em difusão que caracterizam todos os principais frameworks de IA atuais. No entanto, pode ser que novas abordagens surjam nos próximos anos que sejam melhores em discretizar conceitos treinados para que possam ser colados mais habilmente e oferecer menos indicações sobre sua proveniência.
* Não faço acusações contra o EffectMaker, mas comento aqui sobre a generalidade de uma prática emergente na pesquisa de vídeo de IA.
† Porque esses cliques, nesses tipos de filmes, geraram e continuam a gerar dinheiro.
Publicado pela primeira vez na segunda-feira, 16 de março de 2026
Góc nhìn Anderson
IP-Washing Yöntemleri ve AI

Eğer AI’de entelektüel mülkiyet kullanımına ilişkin yasal bir hesaplaşma olacaksa, böyle bir kullanımı bulanıklaştırmak için several yöntemler de vardır.
Opinion AI’de当前, hızla ilerleyen devrim, herhangi bir dönüşümsel teknolojik gelişimin eşlik ettiği en yasal olarak tehlikeli ortamda gerçekleşiyor 19. yüzyıldan bu yana.
3-4 yıl öncesine kadar, makine öğrenimi araştırma topluluğu, IP-korunan materyali yeni sistemler geliştirirken kullanma konusunda örtülü (sık sık açık) bir izin verdi; çünkü bu sistemler henüz başarılı değildi, yani olgun veya ticari olarak uygulanabilir değildi, sonuçlar her anlamda akademikti.
O dönemde, yeni bir nesil difüzyon tabanlı Büyük Dil Modellerinin (LLMler, örneğin ChatGPT ve Claude) ve Görsel-Dil Modellerinin (VLMler, örneğin Sora) aniden başarılı olması, bu soyut ve daha önce ‘zararsız’ araştırma alanlarının ticari olarak uygulanabilir hale geldiğini ve IP koruması konusunda ‘bedava geçiş’lerinin sona erdiğini gösterdi.
Artık, hak sahipleri, büyük ölçüde veya kısmen kendi telif hakkı veya başka şekilde korunan verilerine dayalı olarak eğitilen AI sistemlerinin meyvelerinde bir pay talep edecekler, bu da süregelen bir dizi yasal davaya neden olacak, bunlara bazı çaba harcamak必要 olacak.

Şurada sadece ABD’de açılan davalarla sınırlı, yeni davalar ABD’de ve ötesinde çılgın bir tempoda ortaya çıkıyor. Kaynak
‘Ücretsiz Yemek’ Zorunluluğu
AI altyapısına ilişkin şu anda gerçekleşen mali taahhüt, bazı sesler tarafından ‘telif hakkı tehlikesi’ AI’yi ekonomi toplumunda öyle bir şekilde yerleştirmek için bir çaba olarak önerildi ki, bu sadece ‘büyük olmak’ değil, aynı zamanda ‘dava yoluyla devrilmesi mümkün olmayan’ bir hale gelsin.
Bu genel görüşe doğru, ABD’nin şu anki başkanı, politikaya görüşünü koyuyor ki, ‘Her bir makale, kitap veya başka bir şey için ödeme yapmanız beklenemez, bunları okudunuz veya incelediniz.’.
Gerçekten de? Batı endüstri devrinde benzeri veya karşılaştırılabilir bir şey olmadı ve bu, geleneksel ABD dava ve tazminat kültürüne karşı şiddetle sürtüşen bir hareketi temsil ediyor; belki de en yakın benzer pozisyonlar, tıbbi patentlerin 20 yıl sonra zorunlu olarak sona ermesi (kendisi sık sık saldırı altında) ve beklenti sınırlaması kamu yerlerinde.
Ancak zamanlar değişiyor; şu anda ‘kamulaştırma’ karşıtı IP korumalarına karşı eğilimin durmayacağı veya daha sonra tersine çevrilmeyeceği konusunda hiçbir garanti olmadan, AI sistemlerinin geliştirilmesinde ve çok tartışılan eğitim verilerinin behandlinginde beberapa ikincil yaklaşım standart uygulama haline geliyor.
Vekil Veri Kümeleri
Bu yaklaşımlardan biri, (her zaman başarılı olmayan) savunma tarafından torrent-listing siteleri tarafından kullanılan bir approacha benzer – yani bu sitelerin aslında hiçbir tartışmalı materyali barındırmadıklarını iddia etmeleri.
Bunun yanı sıra, büyük resim veya video verilerinin depolanması ve sunulmasına ilişkin gereksinimi ortadan kaldıran bu tür koleksiyonlar, hızlı güncellemeye (örneğin, telif hakkı sahiplerinin taleplerine göre materyalin kaldırılması) ve sürümleme olanakları sağlar.
Tıpkı torrentlerin sadece IP-korunan materyalin bulunabileceği yerleri gösteren işaretler gibi, birçok etkili veri kümesi aslında sadece mevcut verilerin ‘işaretçi’ tarzı listelerinden oluşur; eğer son kullanıcı bu listeleri kendi veri kümesi için indirme listesi olarak kullanmak isterse, bu onlara kalmış bir meseledir, veri küratörlerinin sorumluluğu açısından.
Bunlar arasında Google Research’in Conceptual 12M veri kümesi bulunur; bu, resimlere altyazılar sağlar, ancak sadece bu resimlerin bulunduğu web üzerindeki konumlarına işaret eder (veri kümesinin derlendiği sırada):

Google Research’in Conceptual 12M derlemesinden iki örnek. Kaynak
Bir başka önemli örnek, ve şimdi AI tarihinde saygınlık iddiasında bulunan, LAION veri kümesidir; bu, 2022 yılında Stable Diffusion adlı üretken sistemlerin ortaya çıkmasını sağladı – bu, son kullanıcıya açık kaynaklı üretken resimler sunan ilk böyle bir çerçeve oldu, tıpkı özel sistemlerin böyle hizmetleri salt ticari bir alan olarak kurmaya hazırlandığı gibi:

LAION projesinin birçok varyantından biri, modern ve telif hakkı olan sanat eserlerini içeriyor. Kaynak
Bu ‘işaretçi’ koleksiyonlarının birçok durumunda, yüksek dosya boyutları, indirilebilen ve barındırılan bir dosyada resim içeriği dahil edildiğini gösterebilir; ancak, önemli olmayan download boyutları genellikle yüksek hacimli metin içeriği ve bazen de çıkarılan gömme veya özelliklerden kaynaklanmaktadır – eğitim sürecinde kaynak veriden çıkarılan özetler veya düğümler.
Video Premium
Video veri kümeleri, ‘vekil veri kümesi’ veya işaretçi yaklaşımı için daha güçlü bir durum sunar, çünkü anlamlı ve kullanışlı bir video sayısı birleştirmek için gereken depolama verisi hacmi engelleyici düzeydedir ve bir ‘dağıtılmış’ yöntem arzu edilir.
Ancak, her iki durumda da – özellikle video için – indirilebilen kaynak URL’leri, eğitim süreçlerinde kullanılmadan önce önemli ölçüde daha fazla dikkat gerektirecek verileri temsil eder. Hem resimler hem de videolar, kullanılabilir örnekler oluşturmak için yeniden boyutlandırılması veya kesme kararları yapılması gerekecektir, mevcut GPU alanına sığacak şekilde.
Hatta ciddi şekilde aşağı örneklenen videolar, genellikle 3-5 saniye gibi çok kısa uzunluklara kesilmesi gerekecektir.
Önemli video veri kümeleri arasında, Google’ın Kinetics İnsan Eylem Video Veri Kümesi ve arama devinin YouTube-8M koleksiyonu bulunur; bu, her videoyu işleme şekli konusunda segment annotation kullanır, ancak yine de son kullanıcıya, sağlanan URL’lerden videoları elde etme sorumluluğu bırakır.
Kapalı ve Açık
Son olarak, bu kategoride, ‘açık’ VFX verileri, daha sonra ortaya çıkan veri kümesini yayımlayan ve erişilebilir kılan kapalı platformlarla üretilir. Bunun nedenini merak etmek ve bunun, şirketin kendi kullanımı için IP-dostu olmayan bir akım modelini temizlemek istemesi olabileceği veya ‘yıkanmış’ bir kümenin dışarıdan istenmesi olabileceği konusunda düşünmek makuldür.
Böyle bir ‘nesiller arası yıkama’ örneği, Omni-VFX veri kümesidir; bu, birçok veri noktasını Open-VFX veri kümesinden içerir (kendisi de Pika ve PixVerse gibi kapalı ve yarı kapalı platformlara referanslar içerir).
Şaka yapmıyorum, Omni-VFX gerçekten de bunu denemiyor:

Açık kaynaklı Omni-VFX veri kümesinde tanıdık bir yüz. Kaynak
Soylu Sorumluluk
IP-washing’in ikinci ana yaklaşımı, telif hakkı materyalinin bir veya daha fazla seviyede kullanılmasıdır. Bu kategorideki bir yöntem, sentetik veri kullanmaktır; bu, bir noktada akış yukarıda telif hakkı materyali ile eğitilmiştir. Böyle durumlarda, özellikle sentetik verinin gerçekçi görünümde sonuçlar elde edebildiği durumlarda, telif hakkı materyali, genel dünya modelleri veya uzmanlaşmamış modeller tarafından makul olarak tahmin edilemeyecek veya yaklaşık olarak elde edilemeyecek dönüşümler sağlar.
Bu, özellikle üretken video sistemlerinin ‘imkansız’ olayları üretmesi gerektiğinde ve olaylar genel olarak ‘görsel efektler’ (VFX) kategorisine girdiğinde geçerlidir.
Aslında, bu konuyu gündeme getiren son araştırma makaleleri dizisi, görsel efektler gibi çeşitli ‘imkansız’ olayları üretme yeteneği sunuyor; bu, özel olarak sipariş edilmiş veya ‘açık kaynak’ VFX kliplerine (örneğin, Marvel sinema evrenindeki çok pahalı VFX şotlarına göre) eğitim görmek yerine:
EffectMaker web sitesinden örnekler, kaynak klipteki (solda) ‘aksiyon’un hedef resme (ortada) uygulanması. Kaynak
Yukarıdaki örnekler, EffectMaker projesinin sayfasından geliyor. EffectMaker, bu yıl içinde VFX dinamiklerini bir video klipten alıp yeni bir klipe aktarmaya çalışan ilk teklif değil; aslında bu, AI VFX araştırmalarında bir alt görev haline geliyor*.
Medya devleri gibi Marvel’in, IP konusunda yasal davaları kazanma olasılıklarının daha yüksek olduğunu bilerek, görsel efekt şirketleri ve startups, görsel efekt çerçevelerinin diğer şirketlerin kurumsal IP’sinden arınmış olmasını sağlamak için büyük çaba sarf ediyorlar.
Önde gelenlerden biri Meta; r/vfx subredditde bildirildiğine göre, VFX sanatçılarına AI modellerini Hollywood düzeyinde görsel efekt şotları üretmesi için eğitmeleri karşılığında iyi ücretli bir kış işe alım turu yaptı. various gönderilerde ücret belirtilmedi, ancak biri ’emekli maaşı’ olarak tanımladı.
Parayı Takip Et
Ancak, Meta gibi şirketlerin bile, gerçekten çeşitli ve bol miktarda ad hoc VFX şotları için ne kadar para ödemeye istekli olduklarını merak etmek gerekir; çünkü bir blockbuster film için ortalama tek bir VFX şotu 42.000 ABD Doları civarındadır ve birçokları çok daha yüksek gelir elde eder.
Dahası, VFX-generating AI modellerinin popüler talebe uyacak şekilde, çeşitli standart efekt klişelerini, özellikle de en popüler ve pahalı film kategorilerinden olanlar, içeriyor olacağı makuldür.
VFX profesyonellerinin, daha önce çalıştıkları film kataloğu için şotlar yeniden yaratma olasılığı bir yana (ki bu, ‘özel’ veri kümesi çalışmalarını taklitçi olarak bağlamsallaştırır), bu yeni örneklerin sıfırdan eğitilen yeni bir mimariye değil, aksine LoRAs gibi yardımcı modüllere yönlendirilebileceği ve bu modüllerin bir temel modeli kullandığı durumda, bu sürecin sadece temel modelin ‘IP-temiz’ olması kadar savunulabilir olduğu gerçeği vardır – ve çok azı böyledir.
Benzer şekilde, eğer ‘yeni’ işlem, ince ayar gibi diğer ‘hibrit’ teknikleri kullanıyorsa, görsel efektin değeri, daha eski koleksiyonlardan veya modellerden gelen modeller, öncüller veya gömme bilgilerine dayanıyorsa, çalışmanın orijinalliği kozmetik olarak kalabilir ve meydan okumaya açık olabilir.
İmkansız Görevler
VFX çıktısı alanı, potansiyel AI veri kümesi IP-washing’i açısından özellikle ilgi çekici bir vaka çalışmasıdır; çünkü görsel efekt şotları genellikle ‘imkansız’ şeyler gösterir ve bunların hiçbir açık kaynak alternatifi yoktur.
Örneğin, bir binanın yıkılması, çeşitli kamu malı veya başka şekilde uygun stok kliplerden bir üretken modele entren edilebilir, ancak insan lazer ışınları üretmesini öğretmek istiyorsanız, VFX kliplerine (çalınan veya sipariş edilen) eğitim görmek zorundasınız; böyle şeyler başka hiçbir yerde olmaz.
Aynı şekilde, diğer tür doğal afetler, dramatik sel gibi, mevcut gerçek dünya kaynak materyalinin, dramatik olaylar üzerindeki etkileyici POV’ları yeniden üretmeyeceği muhtemeldir, çünkü (bazı istisnalar hariç) insanlar genellikle felaket bölgelerinden canlı yayın yapmazlar. Bu nedenle, ‘cool views’ felaketler gerçek dünya veri kümelerinde nadirdir ve bunları üretebilen herhangi bir AI modeli muhtemelen bu bilgileri başka bir yerden aldı.
Çoğu arzu edilen AI görev akışı, bu düzeyde spesifisiteye sahip değildir ve bu durumlarda, IP-korunan verilerin faydalarının bulanıklaştırılması o kadar çaba gerektirmeyebilir.
Sonuç: Bağlantılı Ağ
Sadece AI’ı geniş bir zaman diliminde ve yoğun olarak kullananlar, böyle sistemlerin,Comparable örnekler eğitim verisinde yoksa, birden fazla kavramı birleştirmekte zorlandıklarını içgüdüsel olarak anlarlar.
Bu sınırlama, bağlantı olarak bilinir; burada eğitilen kavramların çeşitli yönleri, ilgili unsurlarla birlikte kümelendiği ve kullanıcının istediği yeni bir yapılandırmaya düzenlenmek istendiğinde, kullanışlı, LEGO tarzı yapı taşlarına ayrışmadığı halde.
Bağlantı, özellikle tüm büyük current genAI çerçevelerini karakterize eden difüzyon tabanlı yaklaşımlar için, neredeyse kaçınılmaz bir mimari yerçekimi çukurudur. Ancak, belki de gelecekteki birkaç yıl içinde, eğitilen kavramları daha da ayrıştırarak, daha az provenans belirtisi sunan ve kullanıcıların istediği şekilde birleştirmelerine olanak veren yeni yaklaşımlar ortaya çıkacaktır.
* EffectMaker’a karşı herhangi bir suçlama yapmıyorum, ancak burada AI video araştırmalarında ortaya çıkan bir uygulamanın genelini yorumluyorum.
† Çünkü bu şotlar, bu tür filmlerde para kazandı ve kazanmaya devam ediyor.
Pazartesi, 16 Mart 2026’da ilk kez yayımlandı
Góc nhìn Anderson
Методы IP-стирки в ИИ

Если надвигается правовое расследование по поводу использования интеллектуальной собственности при обучении ИИ, то существуют также несколько методов сокрытия такого использования.
Мнение Текущая, быстро развивающаяся революция в генеративном ИИ происходит в наиболее правовом хрупком окружении, которое сопровождало любое трансформационное технологическое развитие с девятнадцатого века.
До 3-4 лет назад сообщество исследователей машинного обучения пользовалось молчаливым (часто явным) разрешением на использование материалов, защищенных авторским правом, при разработке новых систем; поскольку эти системы еще не были успешными, в плане зрелости или коммерческой жизнеспособности, результаты были, во всех смыслах, академическими.
В этот период внезапный успех нового поколения диффузионных моделей крупного языка (LLM, таких как ChatGPT и Claude) и моделей видения-языка (VLM, таких как Sora) сигнализировал о том, что эти абстрактные и ранее ‘безобидные’ направления исследований переросли в коммерческую жизнеспособность и выросли из своего ‘бесплатного пропуска’, насколько это касается использования чужой интеллектуальной собственности.
С этого момента правообладатели будут добиваться доли в плодах систем ИИ, обученных в основном или частично на их защищенных авторским правом или иным образом защищенных данных, что приведет к продолжающемуся лавине судебных дел, требующих некоторых усилий, чтобы даже отслеживать их.

Здесь ограниченный только делами, возбужденными в США, новые дела появляются с лихорадочным темпом в Соединенных Штатах и за их пределами. Источник
Обязывающий ‘бесплатный обед’
Финансовые обязательства текущие в отношении инфраструктуры ИИ были выдвинуты некоторыми голосами как попытка укрепить ‘опасные для авторского права’ ИИ так глубоко в экономике общества, что он станет не только ‘слишком большим, чтобы потерпеть неудачу’, но и ‘слишком мощным, чтобы судить’ – или слишком мощным, чтобы успешные судебные дела могли быть допущены к тому, чтобы разрушить революцию.
В направлении этого общего настроения, текущий президент США вводит в политику свое мнение, что ‘Вы не можете ожидать иметь успешную программу ИИ, когда каждая статья, книга или все, что вы прочитали или изучили, вы должны заплатить за это’.
Действительно? Ничто подобное или сравнимое не произошло в западной промышленной эпохе, и это представляет собой движение, которое сильно противоречит традиционной американской культуре судебных разбирательств и возмещения ущерба; возможно, наиболее близкие подобные позиции – обязательное истечение патентов на лекарства после 20 лет (которое само по себе часто подвергается нападкам), и ограничение ожиданий конфиденциальности в общественных местах.
Однако времена меняются; в отсутствие гарантии того, что текущая тенденция к ‘вынужденной толерантности’ против защиты ИИ не ослабнет или не будет позже обращена, существуют несколько второстепенных подходов, которые становятся стандартной практикой в разработке систем ИИ и обработке спорной обучающей информации, которая питает его.
Наборы данных по прокси
Один из этих подходов принимает замечательно похожий подход к (не всегда успешной) защите торрент-сайтов, которые утверждают, что они не хранят никаких оспариваемых материалов – или любых материалов вообще.
Помимо исключения необходимости хранить и обслуживать большие объемы слабо сжимаемых изображений или видеоданных, такие коллекции позволяют быстро обновлять – например, удаление материалов по запросу правообладателей – и версионировать.
Как и торренты являются только указателями на то, где можно найти оспариваемые материалы, несколько очень влиятельных наборов данных сами по себе являются только ‘указателями’ в виде списков существующих данных; если конечный пользователь хочет использовать эти списки как список загрузки для своего собственного набора данных, это зависит от него, насколько это касается ответственности кураторов.
Среди них есть Conceptual 12M от Google Research, который предоставляет подписи к изображениям, но только указывает на места в сети, где эти изображения существуют (или существовали на момент курирования):

Два примера из Conceptual 12M от Google Research. Источник
Другим заметным примером является LAION набор данных, который облегчил появление генеративной системы Stable Diffusion в 2022 году – первой такой платформы, которая предложила мощные открытые генеративные изображения конечным пользователям, как раз когда проприетарные системы казались готовыми установить такие услуги как исключительно коммерческую область:

Один из многих вариантов проекта LAION, представляющий современные и защищенные авторским правом произведения искусства. Источник
Во многих случаях большие размеры файлов некоторых из этих ‘указателей’ указывают на включение изображений в загружаемый и размещаемый файл; однако, не тривиальные размеры загрузки часто обусловлены большим объемом текстового содержания и иногда включением извлеченных вложений или функций – полученных суммирований или узлов иначе применимого содержания, извлеченного из исходных данных во время процесса обучения.
Видеопремиум
Видеонаборы данных представляют еще более сильный случай для подхода ‘набор данных по прокси’ или указателя, поскольку большой объем хранилищ данных, необходимый для агрегации значимого и полезного количества видеороликов в одну загружаемую коллекцию, запрещен, и желателен ‘распределенный’ метод.
Однако, в обоих случаях – но особенно с видео – загружаемые исходные URL представляют данные, которые будут нуждаться в значительном дальнейшем внимании перед использованием в процессах обучения. И изображения, и видео будут нуждаться в изменении размера или принятии решений о обрезке, чтобы создать образцы, которые будут помещаться в доступное пространство GPU. Даже сильно десэмплированные видео также будут требовать обрезки до очень коротких длин, таких как 3-5 секунд, обычно.
Заметные видеонаборы данных, которые используют ссылки на онлайн-видео (а не курирование и прямую упаковку видео), включают Kinetics Human Action Video Dataset от Google и коллекцию YouTube-8M от поискового гиганта, которая использует сегментную аннотацию для указания того, как обращаться с каждым видео после загрузки – но которая снова оставляет конечного пользователя получить видео из предоставленных URL.
Закрытое и открытое
Наконец, в этой категории ‘открытые’ данные VFX могут быть сгенерированы с закрытыми платформами, которые затем публикуют и делают доступным результирующий набор данных. Разумно задуматься, почему это происходит, и рассмотреть, может быть, это происходит потому, что компания-источник хочет санитарно обработать модель, не дружественную к ИИ, для своего собственного использования; или же потому, что ‘очищенный’ набор был запрошен извне.
Одним из таких случаев ‘генерационной стирки’ является, возможно, Omni-VFX набор данных, который включает многие данные из Open-VFX набора данных (который сам по себе ссылается на многие закрытые и полуоткрытые платформы, такие как Pika и PixVerse).
Чтобы быть честным, Omni-VFX даже не пытается скрыть это:

В открытом наборе данных Omni-VFX знакомое лицо. Источник
Предковая ответственность
Второй основной подход к стирке ИИ заключается в использовании защищенных авторским правом материалов на одном или нескольких уровнях удаления. Одним из методов в этой категории является использование синтетических данных, которые были обучены в какой-то момент выше на защищенных авторским правом данных. В таких случаях, особенно когда синтетические данные могут получить аутентично выглядящие результаты, защищенные авторским правом работы поставляют преобразования, которые не могли бы разумно быть угаданы или приближены общими моделями мира или неспециализированными моделями.
Это особенно верно в случае генеративных видеосистем, которые должны генерировать ‘невозможные’ события и события, которые в целом попадают в категорию ‘визуальных эффектов’ (VFX).
На самом деле, то, что привело эту тему к моему вниманию, было последним в серии исследовательских работ, предлагающих возможность ‘абстрагировать’ различные типы визуальных эффектов, таких как производство лазерных лучей из неправдоподобных частей тела, либо путем обучения на заказанных или ‘открытых’ клипах VFX (а не на более очевидном источнике, таком как очень дорогие клипы VFX из фильмов кинематографической вселенной Marvel):
Примеры из веб-сайта EffectMaker, где ‘действие’ в исходном клипе (далеко слева) применяется к исходному изображению (центр). Источник
Вышеуказанные примеры взяты из проектной страницы для EffectMaker проекта. EffectMaker не является даже первым предложением этого года, которое стремится извлечь динамику VFX из одного видеоклипа и транспонировать ее в новый клип, и на самом деле это становится отдельной задачей в исследованиях ИИ VFX*.
Осознав, что медиагиганты, такие как Marvel, имеют более высокую вероятность выиграть судебные дела по ИИ (даже в вышеупомянутой климате ‘принудительной терпимости’), компании по визуальным эффектам и стартапы сейчас идут на значительные длины, чтобы обеспечить, чтобы их генеративные платформы VFX были свободны от чужой корпоративной ИИ.
Прежде всего, это Meta, которая, как сообщалось на subreddit r/vfx, провела хорошо оплачиваемую зимнюю кампанию по найму в 2026 году, предлагая художникам VFX работу по обучению моделей ИИ для вывода высокоуровневых визуальных эффектов. Хотя оплата не была указана в различных постах, один назвал ее ‘денежной пенсией’.
Следуйте за деньгами
Однако, можно задуматься, сколько денег даже такие компании, как Meta, готовы заплатить за真正е разнообразие и изобилие ад hoc клипов VFX, учитывая, что средний отдельный клип VFX для блокбастера составляет около 42 000 долларов США – и многие стоят намного дороже.
Более того, разумно предположить, что заказанные модели VFX будут подчиняться популярному спросу, включая различные стандартные эффекты-тропы из наиболее популярных и дорогих категорий фильмов.
Помимо точки зрения, что ‘остаточные’ профессионалы VFX могут в конечном итоге воссоздать сцены, над которыми они работали для существующего каталога фильмов† – что само по себе контекстуализирует ‘пользовательские’ данные как имитационные – нет гарантии, что эти дорогие новые образцы в конечном итоге будут обучены ‘с нуля’ в совершенно новой архитектуре.
Действительно, если такие рекреации будут перенаправлены в дополнительные модули, такие как LoRAs, которые полагаются на базовую модель, то процесс является столь же обоснованным, как и базовая модель ‘чистая от ИИ’ – и не многие из них.
Аналогично, если ‘новый’ процесс использует другие ‘гибридные’ методы, такие как тонкая настройка, где ценность визуального эффекта зависит от моделей, априорных или вложений из старых коллекций или моделей неопределенной целостности, оригинальность работы является, по сути, косметической и подлежит оспариванию.
Невозможные миссии
Область вывода VFX представляет собой особенно интересный кейс-стадию в отношении потенциальной стирки ИИ в наборах данных, поскольку визуальные эффекты часто изображают ‘невозможные’ вещи, для которых не будет альтернативных открытым источникам.
Например, хотя разрушение здания можно обучить в генеративную модель из различных публичных доменов или иначе доступных клипов, если вы хотите обучить модель для вывода человеческих лазерных лучей, вам придется обучать на клипах VFX, украденных или заказанных; такие вещи не происходят нигде больше.
Даже в случае других типов стихийных бедствий, таких как драматическое наводнение, доступные реальные источники материалов вряд ли смогут воспроизвести драматические точки зрения на катастрофические события, потому что (с некоторыми исключениями) люди обычно не транслят из катастрофических мест. Следовательно, ‘крутые виды’ на катастрофы редки в реальных наборах данных, и любая модель ИИ, которая может генерировать их, вероятно, получила информацию из другого источника.
Большинство желаемых потоков задач ИИ не имеют такого же уровня конкретики, и в таких случаях сокрытие преимуществ защищенных авторским правом данных может не требовать стольких усилий.
Заключение: Запутанная паутина
Только те, кто использовал генеративный ИИ обширно и в течение длительного периода, интуитивно понимают, что такие системы испытывают трудности при комбинации нескольких концепций, когда нет сравнимых примеров в их обучающих данных.
Этот ограничение известно как запутанность, при которой различные аспекты обученных концепций склонны кластеризоваться вместе с связанными элементами, а не разлагаться на удобные, лего-стильные строительные блоки, которые можно расположить в любую новую конфигурацию, которую пользователь может пожелать.
Запутанность является архитектурной гравитационной ямой, которую практически невозможно избежать, по крайней мере для диффузионных подходов, которые характеризуют все основные текущие платформы ИИ. Однако возможно, что появятся новые подходы в течение следующих нескольких лет, которые будут лучше разбивать обученные концепции, чтобы они могли быть склеены более ловко, и предлагать меньше указаний на их происхождение.
* Я не делаю обвинений против EffectMaker, но комментирую здесь общность появляющейся практики в исследованиях видео ИИ.
† Потому что эти сцены, в этих типах фильмов, генерировали и продолжают генерировать деньги.
Опубликовано впервые в понедельник, 16 марта 2026 года
Góc nhìn Anderson
Методи IP-Видалення в AI

Якщо надходять юридичні роз’яснення щодо використання інтелектуальної власності при навчанні AI, існують також кілька методів приховування такого використання.
Опінія Поточна, швидко просунута революція в генеративному AI розгортається в найбільш юридично небезпечному середовищі, яке супроводжує будь-який трансформаційний технологічний розвиток від дев’ятнадцятого століття.
До 3-4 років тому дослідницька спільнота машинного навчання мала неявне (часто явне) дозвіл на використання матеріалів, захищених авторським правом, під час розробки нових систем; оскільки ці системи ще не були успішними, у тому сенсі, що вони були зрілими або комерційно життєздатними, результати були, у кожному сенсі, академічними.
У цей період раптовий успіх нового покоління дифузійних великомасштабних мовних моделей (LLM, таких як ChatGPT і Claude) і візуально-мовних моделей (VLM, таких як Sora) сигналізував про те, що ці абстрактні та раніше “безпекові” напрямки досліджень перетворилися на комерційно життєздатні, і виростили свій “вільний пропуск”, щодо використання чужої інтелектуальної власності.
Відтепер власники прав будуть домагатися частки в плодах систем AI, навчених в основному або частково на їх захищених авторським правом або іншим чином даних, що призведе до триваючої лавини юридичних справ, які вимагають деяких зусиль, щоб навіть слідкувати за ними.

Тут обмежено лише справами, поданими в США, нові справи з’являються в френетичному темпі в Сполучених Штатах і за їх межами. Джерело
Мандат “Безкоштовного Обіду”
Фінансова присвята поточна щодо інфраструктури AI була постановлена деякими голосами як спроба закріпити “крихкі з авторським правом” AI так глибоко в економіці суспільства, що воно стане не тільки “занадто великим, щоб зазнати поразки”, але також “занадто потужним, щоб його можна було успішно судити” – або принаймні, що успішні судові справи не зможуть дозволити революції зазнати поразки.
У цьому загальному настрої поточний президент Сполучених Штатів включає до політики свою думку, що “Ви не можете очікувати мати успішну програму AI, коли кожна стаття, книга або все інше, що ви прочитали або вивчили, вам потрібно платити за це”.
Дійсно? Ніщо подібне не траплялося в західній індустріальній ері, і це представляє рух, який сильно тереться проти традиційної американської культури судових справ і відшкодування; можливо, найближчі подібні позиції – обов’язковий термін дії патентів на лікарські засоби після 20 років (самі по собі часто піддаються нападкам), і обмеження на очікування конфіденційності в громадських місцях.
Однак, часи змінюються; у відсутності будь-якої гарантії, що поточна тенденція до “видатної власності” проти захисту інтелектуальної власності не зазнає невдачі або не буде скасована пізніше, існують кілька вторинних підходів, які стають стандартною практикою в розробці систем AI і обробці спірних навчальних даних, які живлять її.
Набори Даних за Посередництвом
Один із цих підходів приймає досить схожий підхід до (не завжди успішної) захисту торент-сайтів, які стверджують, що вони не містять жодних спірних матеріалів – або будь-яких матеріалів взагалі.
Крім того, що це усуває необхідність зберігання і надання великих обсягів мінімально стиснутих зображень або відеоданих, такі колекції дозволяють здійснювати швидке оновлення – наприклад, видалення матеріалів за запитом власників авторських прав – і версіонування.
Так само, як торенти є лише вказівниками на те, де можна знайти матеріали, захищені авторським правом, низка дуже впливових наборів даних самі по собі є лише “вказівниками” до існуючих даних; якщо кінцевий користувач бажає використовувати ці списки як список завантаження для свого власного набору даних, це залежить від нього, щодо відповідальності кураторів.
До таких належить набір даних Conceptual 12M від Google Research, який надає підписи до зображень, але вказує лише на місця у мережі, де ці зображення існують (або існували на момент кураторства):

Два приклади з набору даних Conceptual 12M від Google Research. Джерело
Інший видатний приклад, і той, який тепер має законне право на шанобливе місце в історії AI, є набір даних LAION, який сприяє появі системи генерації стабільної дифузії у 2022 році – першої такої системи, яка пропонує потужні відкриті джерела генерації зображень кінцевим користувачам, саме тоді, коли пропріетарні системи, здавалося, мали встановити такі послуги як суто комерційну сферу:

Одна з багатьох варіантів проекту LAION, що містить сучасні та захищені авторським правом твори мистецтва. Джерело
У багатьох випадках великі розміри файлів цих “вказівників” вказують на включення зображень у завантажуваний і розміщений файл; однак, не тривіальні розміри завантаження часто пояснюються великою кількістю текстового вмісту, а іноді включенням витягнутих ембеддінгів або функцій – витягнутих підсумків або вузлів іншого застосовного вмісту, витягнутих з джерельних даних під час процесу навчання.
Відео-Преміум
Відео-набори даних представляють ще сильніший випадок для підходу “наборів даних за посередництвом” або вказівників, оскільки великий обсяг даних, необхідний для агрегації значної та корисної кількості відео в одну завантажувану колекцію, є заборончим, і бажаний “розподілений” метод.
Однак, у обох випадках – але особливо з відео – завантажувані джерельні URL представляють дані, які будуть потребувати суттєвої подальшої уваги перед використанням у процесах навчання. І зображення, і відео будуть потребувати зміни розміру, або ж рішень щодо обрізання будуть прийняті, щоб створити зразки, які будуть поміщені в доступний простір GPU. Навіть серйозно зменшені відео також будуть потребувати обрізання до дуже коротких довжин, таких як 3-5 секунд, типово.
Відмічні відео-набори даних, які використовують посилання на відео в мережі (замість кураторства і прямого пакування відео), включають Kinetics Human Action Video Dataset від Google, і колекцію YouTube-8M від цього ж пошукача, яка використовує сегментну анотацію, щоб вказати, як обробляти кожне відео після завантаження – але знову ж таки залишає кінцевого користувача отримувати відео з наданих URL.
Закрито та Відкрито
Нарешті, у цій категорії “відкриті” дані VFX можуть бути згенеровані з закритих платформ, які згодом публікують і роблять доступним результируючий набір даних. Це розумно запитати, чому це відбувається, і розглянути, чи це відбувається тому, що компанія-оригінатор бажає санітарно обробити модель, небезпечну для авторських прав, для власного використання; або ж тому, що “очищений” набір був запитаний ззовні.
Одним із таких випадків “генераційного промивання” є, безумовно, набір даних Omni-VFX, який включає багато даних з Open-VFX набору даних (який сам по собі посилається на багато закритих і напівзакритих платформ, таких як Pika і PixVerse).
Щиро кажучи, Omni-VFX навіть не намагається приховати це:

У відкритому наборі даних Omni-VFX знане обличчя. Джерело
Спадкова Відповідальність
Другий основний підхід до IP-очищення полягає в використанні матеріалів, захищених авторським правом, на одному або декількох рівнях вище. Одним із методів цієї категорії є використання синтетичних даних, які були навчені в якійсь точці вище на захищених авторським правом даних. У таких випадках, особливо тоді, коли синтетичні дані можуть отримувати автентично виглядні результати, захищені авторським правом роботи забезпечують перетворення, які не могли б бути розумно вгадані або наближені загальними моделями світу або неспеціалізованими моделями.
Це особливо справедливо для генерації відео-систем, які повинні генерувати “неможливі” події, і події, які一般но належать до категорії “візуальних ефектів” (VFX).
Насправді, те, що привело цю тему до уваги, була остання в серії дослідницьких робіт, які пропонують можливість “абстрагувати” різні типи візуальних ефектів, таких як генерація лазерних променів з неможливих частин тіла, або шляхом навчання на замовлених або “відкритих” кліпах VFX (замість більш очевидного джерела, такого як дуже дорогі кліпи VFX з фільмів кіноуніверсуму Marvel):
Приклади з веб-сайту EffectMaker, де “дія” в джерельному кліпі (далеко ліворуч) застосовується до джерельного зображення (центр). Джерело
Вище приклади походять з сторінки проекту для проекту EffectMaker. EffectMaker навіть не перший пропонує таке вже цього року, і насправді це перетворюється на окремий підзадач у дослідженні AI VFX*.
Свідомі того, що медіа-гіганти, такі як Marvel, мають вищий ніж середній шанс виграти юридичні справи щодо інтелектуальної власності (навіть у згаданому кліматі “змушеної толерантності”), компанії візуальних ефектів і стартапи зараз йдуть на помітні заходи, щоб забезпечити, щоб їхні генераційні кадри VFX були вільні від чужої корпоративної інтелектуальної власності.
Перш за все серед них є Meta, яка, як повідомляється, на субреддіті r/vfx, пішла на добре оплачувану зимову кампанію з найму до 2026 року, пропонуючи художникам VFX роботу з навчання моделей AI для виводу кадрів візуальних ефектів рівня Голлівуд. Хоча оплата не була вказана в різних постах, один описав її як “пенсійні гроші”.
Слідкуйте за Грошим
Однак, потрібно задуматися, скільки грошей навіть такі компанії, як Meta, готові заплатити за справжню різноманітність і багату кількість ад hoc кадрів VFX, враховуючи, що середня ціна одного кадру VFX для фільму-блокбастера близько 42 000 доларів США – і багато з них коштують значно більше.
Крім того, розумно припустити, що замовлені AI-моделі генерації VFX будуть підкорятися популярному попиту, включаючи різні стандартні ефекти-тропи з найбільш популярних і дорогих категорій фільмів.
Крім того, що “залишені” фахівці VFX можуть закінчити táiстворенням кадрів, над якими вони працювали для існуючої фільмової колекції† – що сам по собі контекстуалізує “замовлену” роботу над набором даних як імітаційну – немає жодної гарантії, що ці дорогі нові зразки будуть навчені “з нуля” в абсолютно новій архітектурі.
Дійсно, якщо такі рекреації будуть відхилені в допоміжні модулі, такі як LoRAs, які залежать від базової моделі, тоді процес є таким же оборонним, як і базова модель є “чистою від інтелектуальної власності” – і не багато з них.
Аналогічно, якщо “новий” процес використовує інші “гібридні” техніки, такі як тонке налаштування, де цінність візуального ефекту залежить від моделей, апріорної ймовірності, або ембеддінгів з старих колекцій або моделей недоведеної цілісності, оригінальність роботи є, безумовно, косметичною, і підлягає виклику.
Неможливі Місії
Домен виводу VFX є особливо цікавим випадком дослідження щодо потенційного IP-очищення в наборах даних AI, оскільки візуальні ефекти часто зображують “неможливі” речі, для яких не буде відкритих альтернатив.
Наприклад, хоча зруйнування будівлі можна було б навчити в генераційну модель з різних публічних доменів або інших доступних кліпів, якщо ви хочете навчити модель генерувати людські лазерні промені, вам потрібно буде навчити її на кліпах VFX, вкрадених або замовлених; такі речі не трапляються ніде інше.
Навіть у випадку інших типів стихійних лих, таких як драматичне повідь, доступний реальний джерельний матеріал малоймовірно зможе відтворити драматичні точки зору на катастрофічні події, оскільки (з деякими винятками) люди не зазвичай транслюють у прямому ефірі з катастрофічних місць. Тому “круті точки зору” на лихо рідкісні у реальних наборах даних, і будь-яка модель AI, яка може генерувати їх, ймовірно, отримала інформацію з іншого джерела.
Більшість бажаних потоків завдань AI не мають такого рівня специфіки, і в таких випадках приховування вигод від даних, захищених авторським правом, може не потребувати майже такої кількості зусиль.
Висновок: Заплутана Мережа
Тільки ті, хто використовував генераційний AI інтенсивно і протягом тривалого періоду, інстинктивно зрозуміють, що такі системи мають труднощі з поєднанням декількох концепцій, коли немає порівняльних прикладів у їхніх навчальних даних.
Ця обмеження відома як заплутування, при якому різні аспекти навчених концепцій схильні кластеризуватися разом з пов’язаними елементами, а не розкладатися на корисні, легкі будівельні блоки, які можна скласти в будь-яку нову конфігурацію, яку користувач може бажати.
Заплутування є архітектурною гравітаційною ямою, яку майже неможливо уникнути, принаймні для дифузійних підходів, які характеризують усі основні поточні кадри genAI. Однак можливо, що з’являться нові підходи протягом наступних кількох років, які будуть краще розрізнювати навчені концепції, щоб їх можна було скласти більш вправно, і пропонувати менше вказівок щодо їхнього походження.
* Я не висунув жодних звинувачень проти EffectMaker, але коментую тут про загальну практику, яка з’являється в дослідженні відео AI.
† Бо ці кадри, у цих типах фільмів, генерують і продовжують генерувати гроші.
Перша публікація понеділка, 16 березня 2026
Góc nhìn Anderson
IP-Washing Metoder i AI

Hvis der er en juridisk afregning på vej over brugen af immaterielle rettigheder i træning af AI, er der også flere metoder til at skjule sådan brug.
Opinion Den nuværende, hurtigt fremadskridende revolution i generativ AI udvikler sig i den mest juridisk usikre omgang, der har ledsaget nogen transformerende teknologisk udvikling siden det nittende århundrede.
Indtil 3-4 år siden nød maskinlæringsforskningsfællesskabet en tavs (ofte eksplizit) tilladelse til at udnytte IP-beskyttet materiale i udviklingen af nye systemer; da disse systemer ikke endnu var succesfulde, i terms af at være modne eller kommercielt levedygtige, var resultaterne, i enhver forstand, akademiske.
I denne periode signalerede den pludselige succes for en ny generation af diffusion-baserede Large Language Models (LLMs, såsom ChatGPT og Claude) og Vision-Language Models (VLMs, såsom Sora) at disse abstrakte og hidtil ‘harmløse’ strømme af forskning havde udviklet sig til kommerciel levedygtighed og var vokset ud af deres ‘fri pas’, så langt som udnyttelsen af andres immaterielle rettigheder var bekymret.
Fra nu af ville rettighedshavere søge en andel i frugterne af AI-systemer, der er trænet overvejende eller delvist på deres ophavsretligt beskyttede data, hvilket førte til en pågående lavine af retssager, der kræver nogen indsats for blot at holde trit.

Begrænset kun til sager, der er indgivet i USA, nye sager opstår i en frenetisk takt i USA og andre steder. Kilde
Mandating a ‘Free Lunch’
Den finansielle forpligtelse der i øjeblikket finder sted i forhold til AI-serveringsinfrastruktur er blevet forslagt af nogle stemmer som et forsøg på at etablere ‘copyright-hazardous’ AI så dybt i samfundets økonomi, at det bliver ikke kun ‘for stort til at fejle’, men også ‘for kraftfuldt at sagsøge’ – eller i hvert fald så kraftfuldt, at succesfulde retssager ikke kan tillades at vælte revolutionen.
Mod denne generelle holdning er den nuværende præsident for USA engageret i at implementere sin holdning til, at ‘Du kan ikke forventes at have et succesfuldt AI-program, når hver enkelt artikel, bog eller andet, du har læst eller studeret, skal betales for’.
Virkelig? Intet lignende eller sammenligneligt er sket i den vestlige industrielle æra, og dette repræsenterer en bevægelse, der skurer kraftigt mod den traditionelle amerikanske kultur af retssager og erstatning; måske er den nærmeste lignende position den obligatoriske udløb af medicinske patenter efter 20 år (i sig selv ofte under angreb), og begrænsningen af forventninger til privatliv i offentlige steder.
Men tiderne skifter; i mangelen på nogen garanti for, at den nuværende trend mod ’eminent domain’ mod IP-beskyttelse ikke vil svigte eller blive omvendt senere, er der flere sekundære tilgange, der bliver standardpraksis i udviklingen af AI-systemer og behandlingen af den meget omdiskuterede træningsdata, der driver det.
Datasets-by-Proxy
En af disse tilgange tager en bemærkelsesværdigt lignende tilgang til forsvaret fra torrent-listing-sites, der ikke altid er succesfulde, som påstår, at de ikke faktisk hoster noget kontroversielt materiale – eller noget materiale overhovedet.
Ud over at undgå behovet for at gemme og servere store mængder minimalt komprimerbar billed- eller video-data, tillader samlinger af denne type hurtig opdatering – såsom fjernelse af materiale på ophavsretshavernes anmodning – og versionering.
Ligesom torrents kun er vejvisere til, hvor IP-beskyttet materiale kan findes, er en række meget indflydelsesrige datasets i sig selv kun ‘pointer’-lignende lister over eksisterende data; hvis slutbrugeren ønsker at bruge disse lister som en download-liste til deres egen dataset, er det på dem, så langt som kuratorernes ansvar synes at være bekymret.
Blandt disse er Google Research’s Conceptual 12M-dataset, der giver billeder med undertekster, men kun peger på lokationer på nettet, hvor disse billeder findes (eller fandtes på tidspunktet for kurering):

To eksempler fra Google Research’s Conceptual 12M-kurering. Kilde
En anden fremtrædende eksempel, og en, der nu har en gyldig krav på respekt i historien om AI, er LAION-datasettet, der muliggjorde opkomsten af det generative Stable Diffusion-system i 2022 – det første sådanne framework, der tilbød kraftfulde åbne kildesystemer til generering af billeder til slutbrugere, ligesom proprietære systemer syntes at etablere sådanne tjenester som en ren kommerciel domæne:

En af de mange varianter af LAION-projektet, der viser moderne og ophavsretligt beskyttede kunstværker. Kilde
I mange tilfælde indikerer de store filstørrelser af disse ‘pointer’-samlinger, at billedindhold er inkluderet i en downloadbar og hostet fil; dog er de ikke-trivielle download-størrelser ofte på grund af den høje mængde af tekstindhold og undertiden inklusion af udtrådte embeddings eller funktioner – resumerede eller knuder af andenvis anvendeligt indhold, der er udtrukket fra kilde-data under træningsprocessen.
Den Video-Premium
Video-datasets præsenterer endnu en stærkere sag for ‘dataset-by-proxy’- eller pointer-tilgange, da den store mængde lagringsdata, der kræves for at samle en meningsfuld og nyttig mængde videoer i en enkelt downloadbar samling, er prohibitiv, og en ‘distribueret’ metode er ønskværdig.
Men i begge tilfælde – men især med video – repræsenterer de downloadbare kilde-URL’er data, der vil kræve betydelig yderligere opmærksomhed, før de kan bruges i træningsprocesser. Både billeder og videoer vil kræve omstilling eller beskæring, for at skabe prøver, der kan passe ind i tilgængeligt GPU-rum. Selv alvorligt nedsamplede videoer vil også kræve beskæring til meget korte længder, såsom 3-5 sekunder, typisk.
Bemærkelsesværdige video-datasets, der bruger henvisninger til online-videoer (i stedet for kurering og direkte pakning af video), omfatter Google’s Kinetics Human Action Video Dataset og søgejættens YouTube-8M-samling, der bruger segment-annotation til at angive, hvordan hver video skal behandles, når den er downloadet – men som igen efterlader slutbrugeren at få videoerne fra de leverede URL’er.
Lukket og Åben
Endelig, i denne kategori, kan ‘åben’ VFX-data genereres med lukkede platforme, der herefter offentliggør og gør det resulterende dataset tilgængeligt. Det er rimeligt at undre sig over, hvorfor dette sker, og at overveje, om det måske er, fordi den oprindelige virksomhed ønsker at sanere en IP-ufvenlig upstream-model til deres egen brug; eller at en ‘vasket’ sæt blev anmodet fra udenfor.
En sådan sag af ‘generational washing’ er, kan man argumentere, Omni-VFX-datasettet, der inkorporerer mange data punkter fra Open-VFX-datasettet (der i sig selv henviser til mange lukkede og semi-lukkede platforme, såsom Pika og PixVerse).
For at være ærlig, Omni-VFX forsøger ikke engang rigtigt:

I det åbne kildesæt Omni-VFX, et velkendt ansigt. Kilde
Ancestral Liability
Den anden store tilgang til IP-washing er gennem brugen af ophavsretligt beskyttet materiale på ét eller flere niveauer. En af metoderne i denne kategori er brugen af synthetisk data, der er trænet, på et eller flere punkter opstrøms, på ophavsretligt beskyttet data. I sådanne tilfælde, især hvor synthetisk data kan opnå autentisk-udseende resultater, leverer ophavsretligt beskyttet arbejde transformationer, der ikke rimeligt kan gættes eller approksimeres af generelle verdensmodeller eller ikke-specialiserede modeller.
Dette er absolut tilfældet, hvor generative videosystemer kræves for at generere ‘umulige’ begivenheder, og begivenheder, der generelt falder ind under kategorien ‘visuelle effekter’ (VFX).
I virkeligheden var det, der fik dette emne til at komme i tanke, den seneste i en række af forskningsartikler, der tilbyder evnen til at ‘abstrahere’ forskellige typer visuelle effekter, såsom at producere laserstråler fra usandsynlige dele af kroppen, enten ved at være trænet på brugerbestemte eller ‘åbne kildes’ VFX-klip (i stedet for den mere åbenlyse kilde, såsom de meget dyre VFX-skud fundet i output fra Marvels filmunivers):
Eksempler fra EffectMaker-website, hvor ‘aktionen’ i kildeklippet (langt til venstre) anvendes på et kildebillede (center). Kilde
De ovennævnte eksempler kommer fra projektsiden for EffectMaker-projektet. EffectMaker er ikke engang det første tilbud i år, der søger at udtrække VFX-dynamik fra en video-klip og overføre det til en ny klip, og i virkeligheden er dette ved at blive til en diskret underopgave i AI-VFX-forskning*.
Ved at være klar over, at medie-kæmper som Marvel har en højere end gennemsnitlig chance for at vinde retssager over IP (selv i den nævnte klima af ‘tvunget tolerance’), er visuelle effekt-virksomheder og startups i øjeblikket gået til bemærkelsesværdige længder for at sikre, at deres generative VFX-rammer er fri for andres virksomheds-IP.
Fremfor alt er det Meta, der er blevet rapporteret på r/vfx-subreddit at have gået på en velbetalt vinter-hyreenetur ind i 2026, og tilbød VFX-kunstnere arbejde med at træne AI-modeller til at producere Hollywood-niveau visuelle effekter. Selv om lønnen ikke var specificeret på tværs af flere indlæg, beskrev en det som ‘pensionspenge’.
Følg Pengene
Men man må undre sig over, hvor meget penge, selv en virksomhed som Meta, er villig til at betale for en sand diversitet og overflod af ad hoc VFX-skud, givet at den gennemsnitlige enkelt VFX-skud for en blockbuster-film er omkring 42.000 USD – og mange kommer i langt højere.
Desuden er det rimeligt at antage, at brugerdefinerede VFX-genererende AI-modeller vil efterkomme populær efterspørgsel, herunder forskellige standard-effekter fra de mest populære og dyreste kategorier af film.
Uden for synspunktet, at ‘resterende’ VFX-fagfolk kan ende med at genskabe skud, de har arbejdet på for en eksisterende filmkatalog† – hvilket i sig selv kontekstualiserer ‘brugerdefineret’ dataset-arbejde som imitativt – er der i hvert fald ingen garanti for, at disse dyre nye prøver vil ende med at blive trænet ‘fra zero’ i en helt ny arkitektur.
I virkeligheden, hvis sådanne rekreations bliver omdirigeret til bifag som LoRAs, der afhænger af en basis-model, er processen kun så forsvarlig, som basis-modellen er ‘IP-ren’ – og ikke mange er.
Ligesom, hvis den ‘nye’ proces bruger andre ‘hybrid’-teknikker som fine-tuning, hvor værdien af den visuelle effekt afhænger af modeller, priorer, eller embeddings fra ældre samlinger eller modeller af usikker integritet, er originaliteten af arbejdet kosmetisk og underlagt udfordring.
Umulige Missioner
Domænet for VFX-udgang er en særligt interessant case-study i forhold til potentiel IP-washing i AI-datasets, da visuelle effekter ofte afbilder ‘umulige’ ting, for hvilke der vil være ingen åbne kildesalternativer tilgængelige.
For eksempel, hvis man ønsker at træne en model til at producere menneskelige laserstråler, skal man træne på VFX-klip, stjålet eller bestilt; sådanne ting sker ikke andre steder.
Selv i tilfælde af andre typer naturkatastrofer, såsom dramatisk oversvømmelse, er tilgængeligt kilde-materiale i virkeligheden ikke i stand til at reproducere dramatiske synspunkter på katastrofale begivenheder, fordi (med nogle undtagelser) mennesker ikke normalt live-streamer fra katastrofale lokaliteter. Derfor er ‘cool views’ på katastrofer sjældne i virkelige datasets, og enhver AI-model, der kan generere dem, fik sandsynligvis informationen et andet sted.
De fleste ønskede AI-opgaver har ikke dette niveau af specifikation, og i sådanne tilfælde kan forkortelsen af fordelene ved ophavsretligt beskyttet data ikke kræve næsten så megen indsats.
Konklusion: En Indviklet Netværk
Kun de, der har brugt generativ AI omfattende og over en længere periode, vil instinktivt forstå, at sådanne systemer kæmper med at kombinere multiple koncepter, når der ikke findes sammenlignelige eksempler i deres træningsdata.
Denne begrænsning er kendt som entanglement, hvor de forskellige aspekter af trænede koncepter tenderer til at klumpe sammen med relaterede elementer, snarere end at dekomponere i håndige, Lego-lignende byggeklodser, der kan arrangeres i enhver ny konfiguration, brugeren måtte ønske.
Entanglement er en arkitektonisk tyngdekraft, der er næsten umulig at undslippe, i hvert fald for de diffusion-baserede tilgange, der kendetegner alle de større nuværende genAI-rammer. Men det kan være, at nye tilgange opstår i de næste par år, der er bedre til at diskretisere trænede koncepter, så de kan samles mere behændigt, og tilbyde færre indikationer om deres proveniens.
* Jeg retter ingen anklager mod EffectMaker, men kommenterer her på generelheden af en opkomende praksis i AI-video-forskning.
† Fordi disse skud, i disse typer film, har genereret og fortsætter med at generere penge.
Først udgivet mandag, den 16. marts 2026
Góc nhìn Anderson
IP-Washing 方法在 AI 中

如果对在训练 AI 中使用知识产权有法律后果,那么也有几种方法可以掩盖这种使用。
观点 当前迅速发展的生成性 AI 革命正在发生在最具法律风险的环境中,这种环境伴随着任何变革性的技术发展 自 19 世纪以来。
在 3-4 年前,机器学习研究社区享有一个默示的(通常是明确的)许可,允许他们在开发新系统时使用受知识产权保护的材料;由于这些系统还没有成功,既没有成熟也没有商业可行性,结果在每个方面都是学术性的。
在那段时间里,新一代基于扩散的大型语言模型(LLMs,如 ChatGPT 和 Claude)和视觉语言模型(VLMs,如 Sora)的突然成功表明,这些抽象和以前“无害”的研究线已经发展到商业可行性,并超出了他们的“免费通行证”,就使用他人的知识产权而言。
从现在开始,权利持有者将寻求在 AI 系统中使用他们的受版权保护或其他保护的数据所带来的利益,导致 持续的法律案件 需要 一些努力 来跟踪。

这里仅限于在美国提起的案件,新案件在美国和其他地方以惊人的速度涌现。 来源
强制“免费午餐”
目前在 AI 服务基础设施方面发生的财务承诺 目前正在发生,有人认为这是为了将“侵犯版权”的 AI 深深地嵌入社会经济中,使其不仅“太大而不倒”,而且“太强大而无法起诉”——或者至少太强大了,以至于成功的诉讼不会被允许破坏这场革命。
朝着这种一般情绪,美国当前总统正在 将他的观点 纳入政策 中,即 “你不能指望在每篇文章、每本书或其他任何你读过或研究过的东西上都付费时拥有一个成功的 AI 程序”。
真的吗?西方工业时代没有类似或可比的情况发生,这代表着一个运动,它严重地与传统的美国诉讼和赔偿文化相冲突;也许最接近的类似立场是药品专利在 20 年后强制到期(这本身 经常受到攻击),以及 限制 在公共场所对隐私的期望。
然而,时代变了;在没有任何保证当前趋势不会逆转或被后来逆转的情况下,AI 系统开发和处理备受争议的训练数据的次要方法正在成为标准实践。
代理数据集
其中一种方法与(不总是成功的)防御类似,例如,torrent 列表网站声称他们不实际托管任何有争议的材料——或任何材料。
除了避免存储和提供大量几乎无法压缩的图像或视频数据的需要外,这些集合还允许快速更新——例如,根据版权持有者的请求删除材料——和版本控制。
就像 torrent 只是指向可以找到 IP 保护材料的标志一样,许多有影响力的数据集本身只是“指针”样式的列表,指向现有数据;如果最终用户希望使用这些列表作为自己的数据集的下载列表,那么这取决于他们自己,至于策展人的责任似乎是如此。
其中包括 Google Research 的 Conceptual 12M 数据集,它为图像提供了字幕,但只指向 图像存在的网络位置(或在策展时存在):

Google Research 的 Conceptual 12M 策展的两个示例。 来源
另一个著名的例子,是 LAION 数据集,它促进了 2022 年 稳定扩散生成系统 的出现——这是第一个为最终用户提供强大的开源生成图像的框架,就像专有系统似乎要确立此类服务为纯粹的商业领域一样:

LAION 项目的一个变体,展示现代和受版权保护的艺术作品。 来源
在许多情况下,这些“指针”集合的高文件大小表明图像内容包含在可下载和托管的文件中;然而,非平凡的下载大小通常是由于文本内容的高体积,有时还包括提取的嵌入或 特征 —— 在训练过程中从源数据中提取的摘要或节点。
视频溢价
视频数据集呈现了一个更强的“代理”或指针方法的案例,因为聚合有意义和有用的视频集合所需的高存储数据量是禁止的,一个“分布式”方法是理想的。
然而,在两种情况下 —— 但尤其是视频 —— 可下载的源 URL 表示需要在训练过程中使用之前需要大量关注的数据。图像和视频需要调整大小,或者 裁剪决策,以创建适合 可用 GPU 空间 的样本。即使是严重下采样的视频也需要剪辑到非常短的长度,例如 3-5 秒。
值得注意的视频数据集使用对在线视频的引用(而不是视频的策展和直接打包)包括 Google 的 Kinetics 人类动作视频数据集,以及搜索巨头的 YouTube-8M 集合,它使用 段注释 来指示如何处理每个视频 —— 但同样留给最终用户从提供的 URL 下载视频。
开源和闭源
最后,在这个类别中,“开源”VFX 数据可能是使用闭源平台生成的,然后发布和提供生成的数据集。可以合理地怀疑为什么会发生这种情况,并考虑为什么可能是因为原始公司希望为自己的使用而清洗 IP 不友好的上游模型;或者“清洗”数据集是从外部请求的。
一个这样的“生成清洗”案例是,Omni-VFX 数据集,它包含了 Open-VFX 数据集 的许多数据点(这本身引用了许多闭源和半闭源平台,例如 Pika 和 PixVerse)。
说实话,Omni-VFX 根本没试图隐瞒:

在开源 Omni-VFX 数据集中,一个熟悉的面孔。 来源
祖先责任
IP 清洗的第二种主要方法是通过使用版权材料,间接或多次间接。这种方法的一种是使用 合成数据,它在某个上游点上经过版权数据的训练。在这种情况下,特别是当合成数据能够获得真实外观的结果时,版权作品提供了无法合理地猜测或通过一般世界模型或非专业模型近似的转换。
这在生成性视频系统需要生成“不可能”的事件和通常属于“视觉效果”(VFX)类别的事件时尤其如此。
实际上,引起我注意这个话题的是最新一系列研究论文中提供的能力,即“抽象”各种类型的视觉效果,例如从身体的不可能部分产生激光束,方法是训练自定义委托或“开源”VFX 剪辑(而不是更明显的来源,例如漫威电影宇宙中的非常昂贵的 VFX 射击):
来自 EffectMaker 网站的示例,其中源片段(最左边)的“动作”应用于源图像(中心)。 来源
上面的示例来自 项目页面 的 EffectMaker 项目。EffectMaker 并不是今年首个提供此类服务的项目,事实上,这已经成为 AI 视觉效果研究中一个离散的子任务*。
意识到媒体巨头如漫威在知识产权方面有很高的胜诉率(即使在上述“强制宽容”的气候下),视觉效果公司和初创公司目前正在极力确保他们的生成性视觉效果框架不包含其他公司的企业知识产权。
其中最重要的是 Meta,它被报道 在 r/vfx subreddit 上在 2026 年冬季招聘了大量的视觉效果艺术家,培训 AI 模型以输出好莱坞级别的视觉效果。虽然各个帖子中没有指定薪水,但有人 将其描述为“退休金”。
跟随资金
然而,人们不得不想知道,即使像 Meta 这样的公司也会为真正多样化和丰富的自定义 VFX 射击支付多少钱,考虑到单个 VFX 射击的平均成本为 42,000 美元 —— 而且很多都更贵。
此外,很合理地认为,定制的 VFX 生成 AI 模型将满足流行需求,包括来自最受欢迎和最昂贵的电影类别的各种标准效果套路。
除了“残余”的 VFX 专业人员可能最终会重现他们为现有电影目录工作过的镜头(这本身就使得“自定义”数据集工作成为模仿)——还有一个问题,即这些昂贵的新样本是否最终会在新的架构中“从零开始”训练。
事实上,如果这些重现被转移到像 LoRAs 这样的附加模块中,这些模块依赖于基础模型,那么这个过程就像基础模型一样具有防御性——而且没有多少是这样。
同样,如果“新”过程使用其他“混合”技术,例如 微调,其中视觉效果的价值依赖于来自旧集合或模型的模型、先验 或嵌入,其完整性没有得到证明,那么工作的原创性是可疑的,并且容易受到挑战。
不可能的任务
视觉效果输出的领域是关于 AI 数据集中的潜在 IP 清洗的一个特别有趣的案例研究,因为视觉效果镜头通常描绘“不可能”的事情,对于这些事情来说,没有开源替代品可用。
例如,如果你想训练一个模型来产生人类激光束,你将需要训练在视觉效果片段上,偷来的或委托的;这样的东西在其他地方是不存在的。
即使在其他类型的自然灾害的情况下,例如戏剧性的洪水,现实世界中的可用源材料不太可能能够重现对灾难性事件的戏剧性视角,因为(有一些例外)人们通常不会从灾难性位置直播。因此,AI 模型能够生成“酷”视角的灾难的可能性很小,很可能是从其他地方获得的信息。
结论:纠缠的网络
只有那些广泛和长期使用生成性 AI 的人才能本能地理解,这样的系统在没有可比例的训练数据的情况下,很难组合多个概念。
这种限制被称为 纠缠,其中训练概念的各个方面倾向于与相关元素聚集在一起,而不是分解成方便的、乐高风格的积木,可以按照用户的意愿排列成任何新的配置。
纠缠是一个几乎无法逃脱的建筑引力坑,至少对于以扩散为基础的方法来说,这些方法是当前主要的 genAI 框架的特征。然而,可能会在未来几年内出现新的方法,这些方法更擅长将训练概念离散化,以便更灵活地将它们粘合在一起,并提供更少的迹象关于它们的来源。
* 我对 EffectMaker 不作任何指控,但在这里评论的是 AI 视频研究中出现的一种普遍做法。
† 因为这些镜头,在这种类型的电影中,已经产生并继续产生了钱。
首次发布于 2026 年 3 月 16 日
Góc nhìn Anderson
IP-Vasking Metoder i AI

Hvis det kommer en juridisk oppgjør over bruken av immaterielle rettigheter i trening av AI, finnes det også flere metoder for å skjule slik bruk.
Meninger Den nåværende, raskt fremadskridende revolusjonen i generativ AI utvikler seg i den mest juridisk prekære miljøet som har fulgt noen transformasjonsteknologisk utvikling siden det nittende århundre.
Inntil 3-4 år siden, nøt maskinlæringsforskningsmiljøet en tilsynelatende (ofte eksplisitt) fullmakt til å utnytte IP-beskyttet materiale i utviklingen av nye systemer; siden disse systemene ikke ennå var suksessfulle, i betydning av å være modne eller kommersielt levedyktige, var resultater i alle sammenhenger akademiske.
I denne perioden signaliserte den plutselige suksessen til en ny generasjon av diffusjonsbaserte store språkmodeller (LLM, som ChatGPT og Claude) og visuelt-språkmodeller (VLM, som Sora) at disse abstrakte og hittil ‘harmløse’ forskningsstrømmer hadde utviklet seg til kommersiell levedyktighet, og vokst ut av sin ‘fri pass’, så langt som utnyttelsen av andres immaterielle eiendomsrett var bekymret.
Fra nå av ville rettighetshaverne søke en andel i fruktene av AI-systemer trent hovedsakelig eller delvis på deres opphavsrettslige eller på annen måte beskyttede data, noe som førte til en pågående lavine av rettssaker som krever en del innsats for å bare holde orden.

Begrenset bare til saker som er innledet i USA, nye saker oppstår i en frenetisk takt i USA og ellers. Kilde
Krev en ‘gratis lunsj’
Den finansielle forpliktelsen som nå skjer i forhold til AI-tjenesteytende infrastruktur har blitt forslagt av noen stemmer som et forsøk på å etablere ‘opphavsrettsfarlig’ AI så dypt i samfunnsøkonomien at det blir ikke bare ‘for stort til å feile’, men også ‘for kraftig til å saksøke’ – eller for kraftig, i alle fall, at vellykkede søksmål kunne bli tillatt å snu revolusjonen.
Mot denne generelle holdningen er den nåværende presidenten i USA i ferd med å sette sin politikk sine synspunkter at ‘Du kan ikke forventes å ha en suksessfull AI-program når hver enkelt artikkel, bok eller noe annet du har lest eller studert, skal betales for’.
Virkelig? Ingen lignende eller sammenlignbare hendelser har skjedd i den vestlige industritiden, og dette representerer en bevegelse som gniser hardt mot den tradisjonelle amerikanske kulturen av søksmål og erstatning; kanskje de nærmeste lignende posisjoner er den obligatoriske utløpingen av medisinske patenter etter 20 år (i seg selv ofte under angrep), og begrensningen på forventninger om personvernet i offentlige steder.
Men tider endrer seg; i fravær av noen garanti for at den nåværende trenden mot ‘tvungen domene’ mot IP-beskyttelse ikke vil svikte, eller bli reversert senere, finnes det flere sekundære tilnærminger som blir standard praksis i utviklingen av AI-systemer, og behandlingen av den meget omstridte treningsdataen som driver det.
Datasett ved proxy
En av disse tilnærmingene tar en merkbart lignende tilnærming til (ikke alltid suksessfulle) forsvar fra torrent-listing-sider som hevder at de ikke faktisk har noen kontroversiell materiale – eller noen materiale i det hele tatt.
Foruten å unngå behovet for å lagre og betjene store mengder minimalt komprimerte bilde- eller videodata, tillater samlinger av denne typen rask oppdatering – som fjerning av materiale på opphavshavernes forespørsel – og versjonering.
Akkurat som torrents bare er veivisere til hvor IP-beskyttet materiale kan finnes, er en rekke svært innflytelsesrike datasett i seg selv bare ‘peker’-lignende lister over eksisterende data; hvis sluttbrukeren ønsker å bruke disse listene som en nedlastingsliste for deres eget datasett, er det på dem, så langt som kuratorens ansvar synes å være bekymret.
Blant slike er Google Researchs Conceptual 12M-datasett, som gir underskrifter for bilder, men bare peker på steder på nettet hvor disse bildene eksisterer (eller eksisterte på tidspunktet for kurering):

To eksempler fra Google Researchs Conceptual 12M-kurering. Kilde
En annen fremtredende eksempel, og en som nå har en gyldig krav på respekt i historien om AI, er LAION-datasettet som muliggjorde fremkomsten av Stable Diffusion-generativt system i 2022 – det første slike rammeverk som tilbød kraftfulle åpne kildegenerative bilder til sluttbrukere, akkurat som proprietære systemer syntes å etablere slike tjenester som en ren kommersiell domene:

En av de mange variantene av LAION-prosjektet, med moderne og opphavsrettslige kunstverk. Kilde
I mange tilfeller indikerer de høye filstørrelsene til noen av disse ‘peker’-samlingene inklusjon av bildeinnhold i en nedlastbar og vertsfilt fil; imidlertid er de ikke-trivielle nedlastingsstørrelsene ofte på grunn av den høye volumet av tekstinnhold, og noen ganger inklusjon av uttrukne funksjoner eller egenskaper – utledede summer eller noder av ellers anvendelige innhold utledet fra kilde-data under treningsprosessen.
Video-premium
Videodatasett presenterer en enda sterkere sak for ‘datasett ved proxy’- eller peker-tilnærmingen, siden den høye volumet av lagringsdata som kreves for å samle en meningsfull og nyttig mengde videoer i en enkelt nedlastbar samling er forbudt, og en ‘distribuert’ metode er ønskelig.
Men, i begge tilfeller – men spesielt med video – representerer de nedlastbare kilde-URL-ene data som vil trenge betydelig ytterligere oppmerksomhet før de kan brukes i treningsprosesser. Begge bilder og videoer vil trenge å bli større eller mindre, eller beslutninger om beskjæring må gjøres, for å skape prøver som vil passe inn i tilgjengelig GPU-plass. Selv alvorlig nedskalerte videoer vil også trenge å kuttes ned til svært korte lengder, som 3-5 sekunder, typisk.
Notable videodatasett som bruker referanser til nettvideoer (i stedet for kurering og direkte pakking av video) inkluderer Googles Kinetics Human Action Video Dataset, og søkejettens YouTube-8M-samling, som bruker segment annotasjon for å indikere hvordan hver video skal behandles en gang den er lastet ned – men som igjen lar sluttbrukeren få videoene fra de supplerte URL-ene.
Lukket og åpen
Til slutt, i denne kategorien, kan ‘åpne’ VFX-data genereres med lukkede plattformer som deretter publiserer og gjør datasettet tilgjengelig. Det er rimelig å undre seg over hvorfor dette skjer, og å vurdere om det kan være fordi det opprinnelige selskapet ønsker å sanere en IP-ufvennlig oppstrømsmodell, for deres egen bruk; eller at en ‘vasket’ sett ble bedt om fra utsiden.
En slik sak med ‘generasjonsvasking’ er, kan man si, Omni-VFX-datasettet, som inkorporerer mange datapunkter fra Open-VFX-datasettet (som selv refererer til mange lukkede og semi-lukkede plattformer, som Pika og PixVerse).
For å være ærlig, Omni-VFX prøver ikke engang virkelig:

I det åpne kilde-Omni-VFX-datasettet, et kjent ansikt. Kilde
Ansestral ansvar
Den andre store tilnærmingen til IP-vasking er gjennom bruk av opphavsrettslig materiale på ett eller flere trinn. En av metodene i denne kategorien er å bruke syntetisk data som er trent, på et eller flere punkter oppstrøms, på opphavsrettslig materiale. I slike tilfeller, spesielt hvor syntetisk data kan oppnå autentisk-utseende resultater, tilbyr opphavsrettslig arbeid transformasjoner som ikke rimelig kan gjettes eller approksimert av generelle verdensmodeller eller ikke-spesialiserte modeller.
Dette er særlig tilfelle hvor generative videosystemer kreves for å generere ‘umulige’ hendelser, og hendelser som ville falle generelt inn i kategorien ‘visuelle effekter’ (VFX).
I virkeligheten, det som førte dette emnet til minne var den siste i en rekke av forskningsartikler som tilbyr evnen til å ‘abstrahere’ forskjellige typer visuelle effekter, som å produsere laserstråler fra usannsynlige deler av kroppen, enten ved å ha blitt trent på tilpassede eller ‘åpne kilde’-VFX-klipp (i stedet for den mer åpenbare kilde, som de svært dyre VFX-skuddene funnet i utgang fra Marvel-kosmosen):
Eksempler fra EffectMaker-nettstedet, hvor ‘aksjonen’ i kildeklippet (langt til venstre) blir brukt til et kildebilde (midten). Kilde
De ovennevnte eksemplene kommer fra prosjektsiden for EffectMaker-prosjektet. EffectMaker er ikke engang det første tilbudet i år som søker å trekke ut VFX-dynamikk fra ett video-klipp og overføre det til et nytt klipp, og i virkeligheten er dette i ferd med å bli en diskret underoppgave i AI-VFX-forskning*.
Ved å være klar over at medie-kjemper som Marvel har en høyere enn gjennomsnittlig sjanse til å vinne rettssaker over IP (selv i den ovennevnte klimaet av ‘tvunget toleranse’), er visuelle effekt-selskaper og start-ups nå i ferd med å gå til betydelige lengder for å sikre at deres generative VFX-rammeverk er fri for andre selskapers korporative IP.
Fremst blant disse er Meta, som er blitt rapportert på r/vfx-subreddit å ha gått på en godt betalt vinter-rekrutterings-runde inn i 2026, og tilbyr VFX-kunstnere arbeid med å trene AI-modeller til å produsere Hollywood-nivå visuelle effekter. Selv om lønnen ikke var spesifisert over flere poster, beskrev en det som ‘pensjons-penger’.
Følg pengene
Men, en må undre seg over hvor mye penger selv Meta er villig til å betale for en virkelig mangfold og overflod av ad hoc VFX-skudd, gitt at den gjennomsnittlige enkelt VFX-skudd for en blockbuster-film er rundt 42 000 USD – og mange kommer inn mye høyere.
Videre, er det rimelig å anta at tilpassede VFX-genererende AI-modeller vil etterkomme populær etterspørsel, inkludert forskjellige standard-effekt-troper fra de mest populære og dyreste kategoriene av filmer.
Bortsett fra synspunktet at ‘resterende’ VFX-fagfolk kan ende opp med å gjenskape skudd de arbeidet på for en eksisterende filmkatalog† – som i seg selv kontekstualiserer ’tilpasset’ datasett-arbeid som imitativ – er det i alle fall ingen garanti for at disse dyre nye prøver vil ende opp med å bli trent ‘fra null’ i en ny arkitektur.
I virkeligheten, hvis slike rekreasjoner blir avledet til hjelpe-moduler som LoRAs, som avhenger av en basis-modell, er prosessen bare like forsvarlig som basis-modellen er ‘IP-rent’ – og ikke mange er.
Tilsvarende, hvis den ‘nye’ prosessen bruker andre ‘hybride’ tekniker som finjustering, hvor verdien av den visuelle effekten avhenger av modeller, priorer, eller innkapslinger fra eldre samlinger eller modeller av ubestemt integritet, er originaliteten av arbeidet kosmetisk, og underlagt utfordring.
Umulige oppdrag
Domene for VFX-utgang er en særlig interessant case-studie i forhold til potensiell IP-vasking i AI-datasett, siden visuelle effekt-skudd ofte avbilder ‘umulige’ ting som det vil være ingen åpne kilde-alternativer tilgjengelige for.
For eksempel, mens rivningen av en bygning kunne bli trent inn i en generativ modell fra forskjellige offentlige domene eller på annen måte rimelige lager-klipp, hvis du ønsker å trene en modell til å produsere menneskelige laserstråler, må du trene på VFX-klipp, stjålet eller bestilt; ting som det skjer ikke andre steder.
Selv i tilfelle andre typer naturkatastrofer, som dramatisk flom, er tilgjengelig virkelige kilde-materiale usannsynlig å kunne gjenskape dramatiske POVer på katastrofale hendelser, fordi (med noen unntak) mennesker ikke vanligvis direkteoverfører fra katastrofale steder. Derfor er ‘kjølige utsikter’ på katastrofer sjeldne i virkelige datasett, og noen AI-modell som kan generere dem, liker å ha fått informasjonen fra andre steder.
De fleste ønskede AI-oppgaver har ikke denne slags spesifikke nivå, og i slike tilfeller kan skjulelsen av fordelen av IP-beskyttet data ikke trenge nær like mye innsats.
Konklusjon: En intrikat nett
Bare de som har brukt generativ AI omfattende og over en vedvarende periode vil instinktivt forstå at slike systemer sliter med å kombinere flere konsepter når ingen sammenlignbare eksempler eksisterer i deres treningsdata.
Denne begrensningen er kjent som intrikasjon, hvor de forskjellige aspektene av trente konsepter tenderer til å kluster sammen med relaterte elementer, i stedet for å dekomponere inn i håndige, Lego-lignende byggeklosser som kan arrangeres inn i noen ny konfigurasjon brukeren måtte ønske.
Intrikasjon er en arkitektonisk tyngdekraft som er nesten umulig å unnslippe, i alle fall for de diffusjonsbaserte tilnærmingene som karakteriserer alle de større nåværende genAI-rammeverkene. Imidlertid kan det være at nye tilnærminger oppstår over de neste årene som er bedre på å diskretisere trente konsepter så de kan bli satt sammen mer behendig, og tilbyr færre indikasjoner på deres proveniens.
* Jeg anklager ikke EffectMaker, men kommenterer her på generaliteten av en fremvoksende praksis i AI-video-forskning.
† Fordi disse skuddene, i disse typene filmer, har generert og fortsetter å generere penger.
Først publisert mandag, 16. mars 2026
Góc nhìn Anderson
IP-Washing Methods in AI

If there’s a legal reckoning to come over the use of intellectual property in training AI, there are also several methods of obscuring such usage.
Opinion The current, rapidly advancing revolution in generative AI is unfolding in the most legally precarious environment that has accompanied any transformative technological development since the nineteenth century.
Until 3-4 years ago, the machine learning research community enjoyed a tacit (often explicit) remit to exploit IP-protected material in the course of developing new systems; since these systems were not yet successful, in terms of being mature or commercially viable, the outcomes were, in every sense, academic.
In that period, the sudden success of a new generation of diffusion-based Large Language Models (LLMs, such as ChatGPT and Claude) and Vision-Language Models (VLMs, such as Sora) signaled that these abstract and hitherto ‘harmless’ strands of research had developed into commercial viability, and outgrown their ‘free pass’, as far as the exploitation of other people’s intellectual property was concerned.
From now on, rights-holders would seek a stake in the fruits of AI systems trained largely or in part on their copyrighted or otherwise protected data, leading to an ongoing avalanche of legal cases that requires some effort to even keep track of.

Here limited only to cases brought in the US, new cases emerge at a frenetic pace in the United States and beyond. Source
Mandating a ‘Free Lunch’
The financial commitment currently occurring in regard to AI-serving infrastructure has been posited by some voices as an effort to entrench ‘copyright-hazardous’ AI so deeply in the economics society that it becomes not only ‘too big to fail’, but also ‘too powerful to sue’ – or too powerful, at least, that successful lawsuits could be allowed to upend the revolution.
Towards this general sentiment, the current president of the United States is committing into policy his view that ‘You can’t be expected to have a successful AI program when every single article, book, or anything else that you’ve read or studied, you’re supposed to pay for’.
Really? Nothing remotely similar or comparable has occurred in the western industrial era, and this represents a movement that abrades severely against the traditional US culture of litigation and reparation; perhaps the nearest similar positions are the mandatory expiration of medicinal patents after 20 years (in itself frequently under attack), and the limitation on expectations of privacy in public places.
However, times change; in the absence of any guarantee that the current trend towards ’eminent domain’ against IP protections won’t falter, or else be reversed later, there are several secondary approaches becoming standard practice in the development of AI systems, and the treatment of the much-contested training data that powers it.
Datasets-by-Proxy
One of these approaches takes a remarkably similar approach to the (not always successful) defense by torrent-listing sites that they don’t actually host any contested material – or any material at all.
Besides obviating the need to store and serve large amounts of minimally-compressible image or video data, collections of this kind allow for rapid updating – such as the removal of material at copyright holders’ requests – and versioning.
Just as torrents are only signposts to where IP-protected material can be found, a number of highly influential datasets are in themselves only ‘pointer’-style lists of extant data; if the end-user wishes to use these lists as a download-list for their own dataset, that’s on them, as far as the curators’ liability would seem to be concerned.
Among such is Google Research’s Conceptual 12M dataset, which provides captions for images, but only points to locations on the web where these images exist (or existed at the time of curation):

Two examples from Google Research’s Conceptual 12M curation. Source
Another prominent example, and one which now has a valid claim to reverence in the history of AI, is the LAION dataset that facilitated the advent of the Stable Diffusion generative system in 2022 – the first such framework to offer powerful open source generative images to end-users, just as proprietary systems seemed set to establish such services as a purely ring-fenced, commercial domain:

One of the many variants of the LAION project, featuring modern and copyrighted artworks. Source
In many cases the high file sizes of some of these ‘pointer’ collections indicate image content inclusion in a downloadable and hosted file; however, the non-trivial download sizes are often due to the high volume of text content, and sometimes the inclusion of extracted embeddings or features – derived summaries or nodes of otherwise applicable content extracted from the source data during the training process.
The Video Premium
Video datasets present an even stronger case for the ‘dataset-by-proxy’ or pointer approach, since the high volume of storage data required to aggregate a meaningful and useful number of videos into a single downloadable collection is prohibitive, and a ‘distributed’ method is desirable.
However, in both cases – but particularly with video – the downloadable source URLs represent data that will need significant further attention before being used in training processes. Both images and videos will need to be resized, or else cropping decisions made, in order to create samples that will fit into available GPU space. Even seriously downsampled videos will also require cutting to very short lengths, such as 3-5 seconds, typically.
Notable video datasets that use references to online videos (rather than the curation and direct packaging of video) include Google’s Kinetics Human Action Video Dataset, and the search giant’s YouTube-8M collection, which uses segment annotation to indicate how to treat each video once downloaded – but which once again leaves the end-user to obtain the videos from the supplied URLs.
Close and Open
Finally, in this category, ‘open’ VFX data may be generated with closed platforms which subsequently publish and make available the resulting dataset. It is reasonable to wonder why this happens, and to consider whether it may be because the originating company wishes to sanitize an IP-unfriendly upstream model, for their own use; or else that a ‘washed’ set was requested from outside.
One such case of ‘generational washing’ is, arguably, the Omni-VFX dataset, which incorporates many data points from the Open-VFX dataset (which in itself references many closed and semi-closed platforms, such as Pika and PixVerse).
To be honest, Omni-VFX is not even really trying:

In the open source Omni-VFX dataset, a familiar face. Source
Ancestral Liability
The second major approach to IP-washing is through the use of copyrighted material at one or many removes. One of the methods in this category is the use of synthetic data that has been trained, at some point upstream, on copyrighted data. In such cases, most particularly where synthetic data is able to obtain authentic-looking results, copyrighted work supplies transformations that could not reasonably be guessed or approximated by general world models, or non-specialized models.
This is emphatically the case where generative video systems are required to generate ‘impossible’ events, and events which would fall generally into the category of ‘visual effects’ (VFX).
In fact, what brought this topic to mind was the latest in a series of research papers offering the ability to ‘abstract’ diverse types of visual effect, such as producing laser beams from improbable parts of the body, either by having been trained on custom-commissioned or ‘open source’ VFX clips (rather than the more obvious source, such as the very expensive VFX shots found in output from the Marvel cinematic universe):
Examples from the EffectMaker website, wherein the ‘action’ in the source clip (far left) is applied to a source image (center). Source
The above examples come from the project page for the EffectMaker project. EffectMaker is not even the first offering this year that seeks to extract VFX dynamics from one video clip and transpose it into a novel clip, and in fact this is turning into a discrete sub-task in AI VFX research*.
Aware that media behemoths such as Marvel have a higher-than-average chance of winning legal cases over IP (even in the aforementioned climate of ‘enforced tolerance’), visual effects companies and startups are currently going to notable lengths to assure that their generative VFX frameworks are free of other companies’ corporate IP.
Foremost of these is Meta, which has been reported on the r/vfx subreddit to have gone on a well-compensated winter hiring spree into 2026, offering VFX artists work training AI models to output Hollywood-level visual effects shots. Though the pay was unspecified across various posts, one described it as ‘retirement money’.
Follow the Money
However, one has to wonder how much money even the likes of Meta are willing to pay for a true diversity and abundance of ad hoc VFX shots, given that the average single VFX shot for a blockbuster movie is around $42,000 USD – and many come in far higher.
Further, it stands to reason that bespoke VFX-generating AI models will accede to popular demand, including various standard effects tropes from the most popular and expensive categories of movies.
Aside from the standpoint that ‘remnant’ VFX professionals could end up recreating shots that they worked on for an existing movie catalog† – which in itself contextualizes the ‘custom’ dataset work as imitative – there is in any case no guarantee that these costly new samples will end up trained ‘from zero’ in a brand new architecture.
Indeed, if such recreations are diverted into adjunct modules like LoRAs, which rely on a base model, then the process is only as defensible as the base model is ‘IP-clean’ – and not many are.
Similarly, if the ‘new’ process uses other ‘hybrid’ techniques such as fine-tuning, where the value of the visual effect relies on models, priors, or embeddings from older collections or models of unsubstantiated integrity, the originality of the work is arguably cosmetic, and subject to challenge.
Impossible Missions
The domain of VFX output is a particularly interesting case-study in regard to potential IP-washing in AI datasets, since visual effects shots often depict ‘impossible’ things for which there will be no open source alternatives available.
For instance, while the demolition of a building could be trained into a generative model from various public domain or otherwise affordable stock clips, if you want to train a model to produce human laser beams, you’re going to need to train on VFX clips, stolen or commissioned; things like that don’t happen anywhere else.
Even in the case of other types of natural disaster, such as dramatic flooding, available real-world source material is unlikely to be able to reproduce dramatic POVs on calamitous events, because (with some exceptions) people don’t usually live-stream from catastrophic locations. Therefore ‘cool views’ on disaster are rare in real-world datasets, and any AI model that can generate them likely got the information elsewhere.
Most desirable AI task-flows do not have this telling level of specificity, and in such cases the obfuscation of the benefits of IP-protected data might not require nearly as much effort.
Conclusion: Entangled Web
Only those who have used generative AI extensively and over a sustained period will instinctively understand that such systems struggle to combine multiple concepts when no comparable examples exist in their training data.
This limitation is known as entanglement, wherein the various facets of trained concepts tend to cluster together with related elements, rather than decompose into handy, Lego-style building bricks that can be arranged into any new configuration the user might desire.
Entanglement is an architectural gravity-well that is pretty much impossible to escape, at least for the diffusion-based approaches that characterize all the major current genAI frameworks. However, it may be that new approaches emerge over the next few years that are better at discretizing trained concepts so that they can be glued together more adroitly, and offer fewer indications as to their provenance.
* I make no accusations against EffectMaker, but comment here on the generality of an emerging practice in AI video research.
† Because these shots, in these types of movies, have generated and continue to generate money.
First published Monday, March 16, 2026
Góc nhìn Anderson
Μέθοδοι IP-Washing στο AI

Εάν υπάρχει νομική εκδίκηση που έρχεται για τη χρήση πνευματικής ιδιοκτησίας στην εκπαίδευση του AI, υπάρχουν επίσης διάφορες μέθοδοι για να αποκρύψουν μια τέτοια χρήση.
Γνώμη Η τρέχουσα, γρήγορα εξελισσόμενη επανάσταση στο γεννητικό AI αναπτύσσεται στο πιο νομικά προβληματικό περιβάλλον που έχει συνοδεύσει οποιαδήποτε μεταμορφωτική τεχνολογική ανάπτυξη από τον δέκατο ένατο αιώνα.
Έως 3-4 χρόνια πριν, η κοινότητα έρευνας μηχανικής μάθησης είχε μια σιωπηρή (συχνά ρητή) άδεια να εκμεταλλεύεται υλικό που προστατεύεται από πνευματικά δικαιώματα κατά την ανάπτυξη νέων συστημάτων· από τότε αυτά τα συστήματα δεν ήταν ακόμη επιτυχημένα, σε σχέση με την ωριμότητα ή την εμπορική βιωσιμότητα, τα αποτελέσματα ήταν, σε κάθε sentido, ακαδημαϊκά.
Σε εκείνη την περίοδο, η ξαφνική επιτυχία μιας νέας γενιάς διαχυτικών μεγάλων γλωσσικών μοντέλων (LLMs, όπως το ChatGPT και το Claude) και οπτικο-γλωσσικών μοντέλων (VLMs, όπως το Sora) σήμανε ότι αυτές οι αφηρημένες και μέχρι τώρα ‘αβλαβείς’ γραμμές έρευνας είχαν εξελιχθεί σε εμπορική βιωσιμότητα και είχαν ξεπεράσει το ‘δωρεάν πέρασμα’, όσον αφορά την εκμετάλλευση της πνευματικής ιδιοκτησίας άλλων.
Από τώρα και στο εξής, οι κάτοχοι δικαιωμάτων θα ζητούν μερίδιο στα οφέλη των συστημάτων AI που εκπαιδεύονται σε μεγάλο βαθμό ή εν μέρει σε δεδομένα που προστατεύονται από πνευματικά δικαιώματα, οδηγώντας σε μια συνεχιζόμενη αβαλάντζα νομικών υποθέσεων που απαιτεί κάποια προσπάθεια για να τις παρακολουθήσετε.

Εδώ, περιορισμένο μόνο σε υποθέσεις που εκδικάζονται στις ΗΠΑ, νέες υποθέσεις εμφανίζονται με φρενήρη ρυθμό στις Ηνωμένες Πολιτείες και πέραν. Πηγή
Μια ‘Δωρεάν Γεύμα’
Η οικονομική δέσμευση που συμβαίνει τώρα σε σχέση με την υποδομή που εξυπηρετεί το AI έχει υποστηριχθεί από ορισμένες φωνές ως προσπάθεια να εδραιώσουν ‘πνευματικά δικαιώματα-επικίνδυνες’ AI τόσο βαθιά στην οικονομία της κοινωνίας, ώστε να γίνει όχι μόνο ‘πολύ μεγάλη για να αποτύχει’, αλλά και ‘πολύ ισχυρή για να μην μπορεί να δικαστεί’ – ή τουλάχιστον τόσο ισχυρή, που οι επιτυχημένες αγωγές δεν θα επιτρέπονταν να ανατρέψουν την επανάσταση.
Προς αυτή τη γενική στάση, ο τρέχων πρόεδρος των Ηνωμένων Πολιτειών είναι υποχρεωμένος σε πολιτική τη δική του άποψη ότι ‘Δεν μπορείτε να περιμένετε να έχετε ένα επιτυχημένο πρόγραμμα AI όταν κάθε άρθρο, βιβλίο ή οτιδήποτε άλλο που έχετε διαβάσει ή μελετήσει, πρέπει να πληρώσετε για αυτό’.
Πραγματικά; Τίποτα που να μοιάζει ή να είναι συγκρίσιμο δεν έχει συμβεί στη δυτική βιομηχανική εποχή, και αυτό αντιπροσωπεύει ένα κίνημα που τρίβει σοβαρά ενάντια στη παραδοσιακή αμερικανική κουλτούρα της δίκης και της αποζημίωσης· ίσως η κοντινότερη παρόμοια θέση είναι η υποχρεωτική λήξη των πατεντών φαρμάκων μετά από 20 χρόνια (η οποία είναι συχνά υπό επιθεση), και η περιορισμός των προσδοκιών για ιδιωτικότητα σε δημόσιους χώρους.
Ωστόσο, οι καιροί αλλάζουν· στην απουσία οποιασδήποτε εγγύησης ότι η τρέχουσα τάση προς ‘εminent domain’ ενάντια στις προστασίες πνευματικών δικαιωμάτων δεν θα αποτύχει ή δεν θα αναστραφεί αργότερα, υπάρχουν διάφορες δευτερεύουσες προσεγγίσεις που γίνονται τυποποιημένες πρακτικές στην ανάπτυξη συστημάτων AI και τη μεταχείριση των πολύ αμφισβητούμενων δεδομένων εκπαίδευσης που τα τροφοδοτούν.
Δεδομένα-με-Διαμεσολαβητή
Μια από αυτές τις προσεγγίσεις ακολουθεί μια αξιοσημείωτα παρόμοια προσέγγιση με την (όχι πάντα επιτυχημένη) άμυνα από τους ιστότοπους λίστας torrent που δεν φιλοξενούν πραγματικά aucun αμφισβητούμενο υλικό – ή οποιοδήποτε υλικό.
Εκτός από το να αποφεύγουν την ανάγκη να αποθηκεύουν και να εξυπηρετούν μεγάλες ποσότητες ελάχιστα συμπιεστών εικόνων ή βίντεο, συλλογές αυτού του είδους επιτρέπουν τη γρήγορη ενημέρωση – όπως η αφαίρεση υλικού στις αιτήσεις των κατόχων πνευματικών δικαιωμάτων – και εκδόσεις.
Ακριβώς όπως τα torrents είναι μόνο σημάνσεις για το πού μπορείτε να βρείτε υλικό που προστατεύεται από πνευματικά δικαιώματα, một αριθμός εξαιρετικά επιρροών συλλογών δεδομένων είναι ο ίδιος μόνο ‘pointer’-στυλ λίστες υφιστάμενων δεδομένων· εάν ο τελικός χρήστης θέλει να χρησιμοποιήσει αυτές τις λίστες ως λίστα λήψης για τη δική του συλλογή δεδομένων, αυτό είναι πάνω του, όσον αφορά την ευθύνη των συντηρητών.
Μεταξύ αυτών είναι το Conceptual 12M dataset της Google Research, το οποίο παρέχει λεζάντες για εικόνες, αλλά μόνο δείχνει θέσεις στο διαδίκτυο όπου αυτές οι εικόνες υπάρχουν (ή υπήρχαν την εποχή της συλλογής):

Δύο παραδείγματα από τη συλλογή Conceptual 12M της Google Research. Πηγή
Ένα άλλο εξαιρετικό παράδειγμα, και ένα που τώρα έχει μια έγκυρη αξίωση σελαβόντας στην ιστορία του AI, είναι η LAION dataset που διευκόλυνε την εμφάνιση του συστήματος Stable Diffusion το 2022 – το πρώτο τέτοιο πλαίσιο που προσφέρει ισχυρά ανοιχτά γεννητικά εικόνες στους τελικούς χρήστες, ακριβώς όπως τα ιδιωτικά συστήματα φαίνονταν έτοιμα να καθορίσουν τέτοιες υπηρεσίες ως एक αποκλειστικά εμπορικό τομέα:

Ένα από τα πολλά παραδείγματα του έργου LAION, με σύγχρονα και πνευματικά δικαιώματα έργα τέχνης. Πηγή
Το Βίντεο Premium
Τα βίντεο datasets παρουσιάζουν ένα ακόμα ισχυρότερο επιχείρημα για την προσέγγιση ‘dataset-by-proxy’ ή pointer,既然 η μεγάλη ποσότητα αποθήκευσης δεδομένων που απαιτείται για να συλλέξει ένα σημαντικό και χρήσιμο αριθμό βίντεο σε μια seule λήψη συλλογή είναι απαγορευτική, και μια ‘κατανεμημένη’ μέθοδος είναι επιθυμητή.
Ωστόσο, και στις δύο περιπτώσεις – αλλά ιδιαίτερα με το βίντεο – οι λήψιμες πηγές URLs αντιπροσωπεύουν δεδομένα που θα χρειαστούν σημαντική περαιτέρω προσοχή πριν χρησιμοποιηθούν σε διαδικασίες εκπαίδευσης. Και οι εικόνες και τα βίντεο θα χρειαστούν να αναδιαμορφωθούν, ή else αποφάσεις cropping θα πρέπει να γίνουν, για να δημιουργηθούν δείγματα που θα ταιριάζουν στο διαθέσιμο χώρο GPU. Ακόμη και σοβαρά downsampled βίντεο θα χρειαστούν κοπή σε πολύ σύντομες διαρκείας, όπως 3-5 δευτερόλεπτα, τυπικά.
Σημαντικά βίντεο datasets που χρησιμοποιούν αναφορές σε online βίντεο (παρά την καλλιέργεια και την άμεση συσκευασία βίντεο) περιλαμβάνουν το Kinetics Human Action Video Dataset της Google, και τη συλλογή YouTube-8M της εταιρείας, η οποία χρησιμοποιεί σημείωση τμήματος για να δείξει πώς να αντιμετωπίζουν κάθε βίντεο μια φορά λήψη – αλλά που αφήνει τον τελικό χρήστη να λάβει τα βίντεο από τις παρεχόμενες URLs.
Κλειστό και Ανοιχτό
Τέλος, σε αυτή την κατηγορία, ‘ανοιχτά’ δεδομένα VFX μπορεί να παραχθούν με κλειστά πλαίσια που στη συνέχεια δημοσιεύουν και κάνουν διαθέσιμη τη συνακόλουθη συλλογή δεδομένων. Είναι εύλογο να αναρωτηθούμε γιατί συμβαίνει αυτό, και να εξετάσουμε εάν μπορεί να είναι επειδή η αρχική εταιρεία θέλει να σαπούνει ένα IP-αντίθετο μοντέλο ροής για τη δική της χρήση· ή else ότι μια ‘πλυμένη’ συλλογή ζητήθηκε από έξω.
Ένα τέτοιο παράδειγμα ‘γενεαλογικής πλύσης’ είναι, επιχειρηματικά, η Omni-VFX dataset, η οποία ενσωματώνει πολλά σημεία δεδομένων από τη Open-VFX dataset (η οποία με τη σειρά της αναφέρεται σε πολλά κλειστά και ημι-κλειστά πλαίσια, όπως Pika και PixVerse).
Για να είμαι ειλικρινής, η Omni-VFX δεν προσπαθεί πραγματικά:

Στη συλλογή ανοιχτού κώδικα Omni-VFX, ένα οικείο πρόσωπο. Πηγή
Αρχική Ευθύνη
Η δεύτερη κύρια προσέγγιση για το IP-washing είναι μέσω της χρήσης πνευματικής ιδιοκτησίας σε μια ή πολλές αποστάσεις. Μια από τις μεθόδους σε αυτή την κατηγορία είναι η χρήση συνθετικών δεδομένων που έχουν εκπαιδευτεί, σε κάποιο σημείο ροής, σε δεδομένα που προστατεύονται από πνευματικά δικαιώματα. Σε τέτοιες περιπτώσεις, ιδιαίτερα όπου τα συνθετικά δεδομένα μπορούν να λάβουν αυθεντικά αποτελέσματα, η πνευματική ιδιοκτησία παρέχει μετασχηματισμούς που δεν θα μπορούσαν να υπολογιστούν ή να προσεγγιστούν από γενικούς κόσμους μοντέλων ή μη εξειδικευμένων μοντέλων.
Αυτό είναι ιδιαίτερα η περίπτωση όπου τα γεννητικά συστήματα βίντεο απαιτούν να παράγουν ‘αδύνατα’ γεγονότα, και γεγονότα που θα ταξινομηθούν γενικά στην κατηγορία ‘οπτικά εφέ’ (VFX).
Πράγματι, αυτό που έφερε αυτό το θέμα στο μυαλό μου ήταν η τελευταία σε μια σειρά ερευνητικών εργασιών που προσφέρουν τη δυνατότητα να ‘απομακρύνουν’ διάφορα είδη οπτικών εφέ, όπως η παραγωγή laser δέσμων από απίθανους τμήματα του σώματος, είτε έχοντας εκπαιδευτεί σε ειδικά επιτροπές ή ‘ανοιχτές’ VFX κλιπ (παρά την πιο προφανή πηγή, όπως τα πολύ ακριβά VFX shots που βρίσκονται στην έξοδο από το Marvel σινεματικό σύμπαν):
Παραδείγματα από την ιστοσελίδα EffectMaker, όπου η ‘δράση’ στο αρχικό κλιπ (μακρυά αριστερά) εφαρμόζεται σε μια πηγή εικόνας (κέντρο). Πηγή
Τα παραπάνω παραδείγματα προέρχονται από την ιστοσελίδα του έργου για το EffectMaker project. EffectMaker δεν είναι ακόμη η πρώτη προσφορά αυτή τη χρονιά που επιδιώκει να εξαγάγει δυναμική VFX από ένα βίντεο κλιπ και να την μεταφέρει σε ένα νέο κλιπ, και στην πραγματικότητα αυτό γίνεται σε μια διακριτή υπο-εργασία στην έρευνα AI VFX*.
Γνωρίζοντας ότι οι μέγιστοι των μέσων ενημέρωσης, όπως η Marvel, έχουν μια υψηλότερη από το μέσο ποσοστό να κερδίζουν νομικές υποθέσεις για πνευματικά δικαιώματα (ακόμη και στην προαναφερθείσα κλίμα ‘εγκαταλελειμμένης ανεκτικότητας’), οι εταιρείες οπτικών εφέ και οι νεοφυείς επιχειρήσεις κάνουν τώρα αξιοσημείωτες προσπάθειες για να διαβεβαιώσουν ότι τα γεννητικά τους πλαίσια VFX είναι ελεύθερα από την πνευματική ιδιοκτησία άλλων εταιρειών.
Πρώτα από αυτά είναι η Meta, η οποία έχει αναφερθεί στο subreddit r/vfx να έχει κάνει μια καλά αμειβόμενη χειμώνα προσλήψεις στο 2026, προσφέροντας στους καλλιτέχνες VFX εργασία για την εκπαίδευση μοντέλων AI να βγάζουν Hollywood-επίπεδο οπτικά εφέ shots. Αν και η αμοιβή δεν ήταν καθορισμένη σε διάφορες αναρτήσεις, μια περιέγραψε την ως ‘χρήματα συνταξιοδότησης’.
Ακολουθήστε τα Χρήματα
Ωστόσο, πρέπει να αναρωτηθούμε πόσο χρήματα ακόμη και οι gibi Meta είναι διατεθειμένοι να πληρώσουν για μια πραγματική ποικιλία και αφθονία ad hoc VFX shots, δεδομένου ότι ο μέσος όρος ενός VFX shot για μια ταινία blockbuster είναι περίπου 42.000 δολάρια ΗΠΑ – και πολλά έρχονται πολύ υψηλότερα.
Πέραν του ότι είναι λογικό να υποθέσουμε ότι τα εξειδικευμένα μοντέλα VFX-γεννητικά AI θα υποκύψουν στην δημοφιλή ζήτηση, συμπεριλαμβανομένων των τυπικών εφέ tropes από τις πιο δημοφιλείς και ακριβές κατηγορίες ταινιών.
Εκτός από την άποψη ότι ‘υπόλοιπα’ επαγγελματίες VFX μπορεί να τελικά να αναδημιουργήσουν shots που δούλεψαν για μια υπάρχουσα ταινία καταλόγου† – η οποία με τη σειρά της.contextualizes την ‘εξειδικευμένη’ δουλειά dataset ως μιμητική – δεν υπάρχει καμία εγγύηση ότι αυτά τα ακριβά νέα δείγματα θα τελικά εκπαιδευτούν ‘από το μηδέν’ σε μια εντελώς νέα αρχιτεκτονική.
Πράγματι, εάν τέτοιες αναδημιουργίες διευθύνονται σε ενδιάμεσους модούλους όπως LoRAs, οι οποίοι βασίζονται σε ένα βασικό μοντέλο, τότε η διαδικασία είναι τόσο αμυντική όσο το βασικό μοντέλο είναι ‘IP-καθαρό’ – και δεν υπάρχουν πολλά.
Ομοίως, εάν η ‘νέα’ διαδικασία χρησιμοποιεί άλλες ‘υβριδικές’ τεχνικές όπως fine-tuning, όπου η αξία του οπτικού εφέ βασίζεται σε μοντέλα, πriors, ή embeddings από παλαιότερες συλλογές ή μοντέλα αμφισβητούμενης ακεραιότητας, η πρωτοτυπία του έργου είναι αμφισβητήσιμη και υπόκειται σε αμφισβήτηση.
Αδύνατες Αποστολές
Το πεδίο της έξοδου VFX είναι μια ιδιαίτερα ενδιαφέρουσα μελέτη περίπτωσης σε σχέση με το πιθανό IP-washing στα datasets AI, поскольку τα οπτικά εφέ shots συχνά απεικονίζουν ‘αδύνατα’ πράγματα για τα οποία δεν θα υπάρχουν ανοιχτές εναλλακτικές λύσεις διαθέσιμες.
Για παράδειγμα, ενώ η κατεδάφιση ενός κτιρίου θα μπορούσε να εκπαιδευτεί σε ένα γεννητικό μοντέλο από διάφορα δημόσια κλιπ ή άλλου είδους προσιτά stock κλιπ, εάν θέλετε να εκπαιδεύσετε ένα μοντέλο να παράγει ανθρώπινες laser δέσμες, θα πρέπει να εκπαιδεύσετε σε VFX κλιπ, κλεμμένα ή επιτροπευμένα· τέτοια πράγματα δεν συμβαίνουν σε κανένα άλλο μέρος.
Ακόμη και στην περίπτωση άλλων τύπων φυσικών καταστροφών, όπως δραματικών πλημμυρών, το διαθέσιμο πραγματικό υλικό πηγής είναι απίθανο να μπορεί να αναπαράγει δραματικές POVs σε καταστροφικά γεγονότα, επειδή (με ορισμένες εξαιρέσεις) οι άνθρωποι δεν συνήθως live-stream από καταστροφικές τοποθεσίες. Έτσι ‘δύναμες απόψεις’ σε καταστροφές είναι σπάνιες σε πραγματικά datasets, και οποιοδήποτε μοντέλο AI που μπορεί να τις παράγει πιθανότατα έλαβε τις πληροφορίες αλλού.
Πολλά επιθυμητά ροή εργασιών AI δεν έχουν αυτό το επίπεδο специficity, και σε τέτοιες περιπτώσεις η αποκρύψυση των οφελών των δεδομένων που προστατεύονται από πνευματικά δικαιώματα μπορεί να μην απαιτεί σχεδόν τόσο μεγάλη προσπάθεια.
Συμπέρασμα: Ενταγμένο Δίκτυο
Μόνο εκείνοι που έχουν χρησιμοποιήσει εκτενώς και για μια μακρά περίοδο το γεννητικό AI θα κατανοούν αυθόρμητα ότι τέτοιες συστήματα δυσκολεύονται να συνδυάσουν πολλαπλά концепτά όταν δεν υπάρχουν συγκρίσιμα παραδείγματα στη συλλογή τους δεδομένων.
Αυτό το όριο είναι γνωστό ως ενταγμένο, όπου τα διάφορα σημεία των εκπαιδευμένων концепτών τείνουν να συσσωρευτούν μαζί με σχετικά στοιχεία, αντί να αποσυναρμολογηθούν σε χρήσιμες, Lego-στυλ οικοδομικά στοιχεία που μπορούν να διατεθούν σε οποιαδήποτε νέα διαμόρφωση ο χρήστης μπορεί να επιθυμήσει.
Το ενταγμένο είναι ένα αρχιτεκτονικό βαρύπεδο που είναι σχεδόν αδύνατο να ξεφύγει, τουλάχιστον για τις διαχυτικές προσεγγίσεις που χαρακτηρίζουν όλα τα μεγάλα τρέχοντα genAI πλαίσια. Ωστόσο, μπορεί να είναι ότι νέες προσεγγίσεις εμφανίζονται τα επόμενα χρόνια που είναι καλύτερες στο να διακριβώσουν τα εκπαιδευμένα концепτά ώστε να μπορούν να συνδυαστούν πιο ευέλικτα, και να προσφέρουν λιγότερες ενδείξεις για την προέλευσή τους.
* Δεν κάνω κατηγορίες ενάντια στο EffectMaker, αλλά σχολιάζω εδώ για τη γενικότητα μιας αναδυόμενης πρακτικής στην έρευνα βίντεο AI.
† Επειδή αυτά τα shots, σε αυτούς τους τύπους ταινιών, έχουν παράγει και συνεχίζουν να παράγουν χρήματα.
Πρώτη δημοσίευση την Δευτέρα, 16 Μαρτίου 2026
Góc nhìn Anderson
Metody IP-Washing v AI

Pokud existuje právní vyúčtování, které má přijít ohledně používání duševního vlastnictví při školení AI, existují také několik metod, jak toto použití zakrýt.
Opinion Běžící, rychle se rozvíjející revoluce v generativní AI se odehrává v nejprávně nejistějším prostředí, které doprovázelo jakoukoli transformační technologický vývoj od 19. století.
Až před 3-4 lety, komunita výzkumu strojového učení měla tacitní (často explicitní) povolení k využívání materiálu chráněného duševním vlastnictvím při vývoji nových systémů; jelikož tyto systémy nebyly dosud úspěšné, co se týče zralosti nebo komerční životaschopnosti, výsledky byly ve všech směrech akademické.
V tomto období, náhlý úspěch nové generace difuzních Large Language Models (LLM, jako je ChatGPT a Claude) a Vision-Language Models (VLM, jako je Sora) signál, že tyto abstraktní a dříve “neškodné” směry výzkumu se vyvinuly do komerční životaschopnosti a vyrostly z “volné karty”, pokud jde o využívání duševního vlastnictví jiných lidí.
Od nynějška, držitelé práv budou usilovat o podíl na plodech AI systémů, které byly školeny převážně nebo zčásti na jejich autorsky chráněných nebo jinak chráněných datech, což povede k běžící lavině právních případů, které vyžadují nějakou snahu, aby se jim mohlo věnovat.

Omezené pouze na případy podané v USA, nové případy vznikají v rychlém tempu ve Spojených státech a jinde. Zdroj
Povinnost “Bezplatného Oběda”
Finanční závazek právě probíhající v souvislosti s infrastrukturou pro AI byl některými hlasy označen jako pokus o zakotvení “copyright-hazardous” AI tak hluboko v ekonomice společnosti, aby se stalo nejen “příliš velkým na to, aby selhalo”, ale také “příliš mocným na to, aby bylo možné jej úspěšně žalovat” – nebo alespoň tak mocným, aby úspěšné žaloby nemohly být dovoleny, aby převrátili revoluci.
V tomto směru, současný prezident Spojených států zavádí do politiky svůj názor, že “Nemůžete očekávat, že budete mít úspěšný AI program, když každá jednotlivá článek, kniha nebo cokoliv jiného, co jste četli nebo studovali, musíte platit”.
Skutečně? Nic podobného nebo srovnatelného se nestalo v západní průmyslové éře a toto představuje hnutí, které se ostře dotýká tradiční americké kultury žalob a náhrad; možná nejbližší podobné pozice jsou povinné vypršení patentů na léky po 20 letech (což je samo o sobě často napadáno), a omezení očekávání soukromí na veřejných místech.
Nicméně, časy se mění; v nepřítomnosti jakéhokoli zajištění, že současný trend směrem k “vyvlastnění” proti ochraně duševního vlastnictví nebude selhat nebo nebude později zrušen, existují several sekundární přístupy, které se stávají standardní praxí ve vývoji AI systémů a zpracování sporných školicích dat, která je pohání.
Datové soubory zprostředkovatele
Jeden z těchto přístupů využívá podobnou strategii jako (ne vždy úspěšná) obhajoba torrent-listing stránek, že ve skutečnosti nehostují žádné sporné materiály – nebo jakýkoli materiál vůbec.
Kromě toho, že se eliminuje potřeba ukládat a poskytovat velké množství minimálně komprimovatelných obrazových nebo video dat, tyto kolekce umožňují rychlé aktualizace – jako je odstranění materiálu na žádost držitelů autorských práv – a verzi.
Stejně jako torrenty jsou pouze ukazatele na místa, kde lze najít chráněný materiál, řada vysoce vlivných datových souborů je sama o sobě pouze “ukazatelem” – seznamem existujících dat; pokud uživatel chce tyto seznamy použít jako seznam ke stažení pro svou vlastní datovou sadu, je to na něm, pokud jde o odpovědnost kurátorů.
Mezi nimi je datová sada Conceptual 12M od Google Research, která poskytuje popisky pro obrázky, ale pouze ukazuje lokace na webu, kde tyto obrázky existují (nebo existovaly v době kurátorství):

Dva příklady z kurátorství Google Research Conceptual 12M. Zdroj
Dalším prominentním příkladem, který nyní má platný nárok na úctu v historii AI, je LAION datová sada, která umožnila vznik generativního systému Stable Diffusion v roce 2022 – první takový rámec, který nabídl silné otevřené zdrojové generativní obrázky koncovým uživatelům, právě když se zdálo, že proprietární systémy budou tyto služby etablovat jako ryze uzavřenou, komerční doménu:

Jedna z mnoha variant projektu LAION, zobrazující moderní a autorsky chráněná díla. Zdroj
Ve mnoha případech velikost souborů těchto “ukazatelů” naznačuje, že obrazová data jsou zahrnuta v stažitelném a hostovaném souboru; nicméně, nezanedbatelné velikosti stažení jsou často způsobeny vysokým objemem textového obsahu a někdy zahrnují extrahované vlastnosti – odvozené souhrny nebo uzly jinak použitelného obsahu extrahovaného z původních dat během školicího procesu.
Video Premium
Video datové soubory představují ještě silnější případ pro “datový soubor zprostředkovatele” nebo ukazatelový přístup, protože vysoké objemy úložného prostoru vyžadované pro agregaci významného a užitečného počtu videí do jediné stažitelné kolekce jsou prohibitive, a “distribuovaný” metoda je žádoucí.
Nicméně, v obou případech – ale zejména u videa – stažitelné zdrojové URL představují data, která budou vyžadovat významnou další pozornost před použitím ve školicích procesech. Obrazy i videa budou muset být přepočteny, nebo rozhodnutí o ořezání budou muset být učiněna, aby se vytvořily vzorky, které budou.fit do dostupného GPU prostoru. I vážně downsamplovaná videa budou také vyžadovat krátké délky, jako je 3-5 sekund, typicky.
Značné video datové soubory, které používají odkazy na online videa (místo kurátorství a přímého balení videa), zahrnují Kinetics Human Action Video Dataset od Google a sbírku YouTube-8M od stejné společnosti, která používá segment anotaci, aby označila, jak zacházet s každým videem, jakmile je staženo – ale které opět ponechává koncovému uživateli, aby získal videa z dodaných URL.
Zavřené a Otevřené
Nakonec, v této kategorii, “otevřená” VFX data mohou být generována s uzavřenou platformou, která následně publikuje a zpřístupňuje výsledný datový soubor. Je rozumné se divit, proč se to děje, a zda se to může stát, protože původní společnost chce sanitovat IP-nepřátelský upstream model pro svou vlastní potřebu; nebo že “vypraný” datový soubor byl vyžádán zvenčí.
Jedním z takových případů “generační pračky” je, zřejmě, Omni-VFX datová sada, která zahrnuje mnoho datových bodů z Open-VFX datové sady (která sama odkazuje na mnoho uzavřených a semi-uzavřených platforem, jako je Pika a PixVerse).
Chcete-li být upřímní, Omni-VFX se ani nesnaží:

V otevřeném zdrojovém datovém souboru Omni-VFX, známá tvář. Zdroj
Odpovědnost Předků
Druhý hlavní přístup k IP-washing je prostřednictvím používání autorsky chráněného materiálu na jedné nebo více úrovních vzdálenosti. Jednou z metod v této kategorii je použití syntetických dat, která byla školená, v某 bodě upstream, na autorsky chráněných datech. V takových případech, zejména tam, kde syntetická data jsou schopna získat autenticky vypadající výsledky, autorsky chráněné dílo poskytuje transformace, které by nebylo možné rozumně uhodnout nebo aproximovat obecnými světovými modely nebo nespecializovanými modely.
To je zejména případ, kdy generativní video systémy jsou povinny generovat “nemožné” události a události, které by obecně spadaly do kategorie “vizuálních efektů” (VFX).
Ve skutečnosti, to, co přivedlo tuto problematiku do mého vědomí, byla poslední z řady výzkumných prací, které nabízejí schopnost “abstrahovat” různé typy vizuálních efektů, jako je například produkce laserových paprsků z nepravděpodobných částí těla, buď tím, že byly školeny na zakázkových nebo “otevřených” VFX klipech (místo zjevnějšího zdroje, jako je velmi drahý VFX ve výstupu z Marvel cinematic universe):
Příklady z webové stránky EffectMaker, kde je “akce” ve zdrojovém klipu (daleko vlevo) aplikována na zdrojový obrázek (střed). Zdroj
Výše uvedené příklady pocházejí z projektové stránky pro EffectMaker projekt. EffectMaker není ani první nabídka tohoto roku, která se snaží extrahovat VFX dynamiku z jednoho video klipu a přenést ji do nového klipu, a ve skutečnosti se to stává samostatným úkolem ve výzkumu AI VFX*.
Je si vědom, že mediální giganti, jako je Marvel, mají vyšší než průměrnou šanci vyhrát právní případy týkající se duševního vlastnictví (i v uvedeném klimatu “vynucené tolerance”), vizuální efektové společnosti a startupy nyní jdou na značné délky, aby zajistily, že jejich generativní VFX rámce jsou zdarma od korporátního duševního vlastnictví jiných společností.
Především z nich je Meta, která byla hlášena na r/vfx subreddit, že šla na dobře placenou zimní náborovou akci do roku 2026, nabízející VFX umělcům práci na školení AI modelů pro produkci Hollywood-level vizuálních efektů. Ačkoli plat nebyl specifikován v různých příspěvcích, jeden popisoval jej jako “penzijní peníze”.
Sledujte Peníze
Nicméně, je třeba se divit, kolik peněz jsou dokonce společnosti, jako je Meta, ochotny zaplatit za skutečnou rozmanitost a hojnost ad hoc VFX shotů, vzhledem k tomu, že průměrný jediný VFX shot pro blockbuster film je kolem 42 000 USD – a mnohé z nich jsou mnohem vyšší.
Dále je rozumné předpokládat, že zakázkové VFX-generující AI modely budou ustupovat populární poptávce, včetně různých standardních efektů tropů z nejpopulárnějších a nejdražších kategorií filmů.
Kromě skutečnosti, že “zbytkoví” VFX profesionálové mohou nakonec rekreovat shoty, na kterých pracovali pro stávající filmový katalog† – což samo o sobě kontextualizuje “zakázkovou” datovou práci jako imitační – neexistuje žádná záruka, že tyto drahé nové vzorky budou nakonec školeny “od nuly” v brand new architektuře.
Skutečně, pokud takové rekreace jsou odbočeny do pomocných modulů, jako je LoRAs, které spoléhají na základní model, pak je proces tak defenzivní, jako je základní model “IP-čistý” – a mnoho z nich není.
Podobně, pokud “nový” proces používá jiné “hybridní” techniky, jako je fine-tuning, kde hodnota vizuálního efektu závisí na modelech, přípustných nebo embeddingech ze starších sbírek nebo modelů nejasné integrity, originalita práce je zřejmě kosmetická a podléhá výzvě.
Nemožné Mise
Doména VFX výstupu je zvláště zajímavým případovým studiem ve vztahu k potenciálnímu IP-washing v AI datech, protože vizuální efektové shoty často zobrazují “nemožné” věci, pro které nebudou žádné otevřené zdrojové alternativy k dispozici.
Například, zatímco demolice budovy by mohla být školená do generativního modelu z různých veřejně dostupných nebo jinak dostupných stock klipů, pokud chcete školení modelu, aby produkoval lidské laserové paprsky, budete muset školení na VFX klipech, ukradených nebo zadaných; takové věci se nestávají nikde jinde.
I v případě jiných typů přírodních katastrof, jako je dramatické zatopení, dostupný reálný zdroj materiálu je nepravděpodobný, aby mohl reprodukovat dramatické POVs na katastrofických událostech, protože (s některými výjimkami) lidé obvykle nelivestreamují z katastrofických míst. Proto “cool views” na katastrofy jsou vzácné ve skutečných datech, a jakýkoli AI model, který může generovat je, likely dostal informace z jiného zdroje.
Většina žádoucích AI úkolů nemá tento level specifičnosti, a v takových případech by zakrytí výhod autorsky chráněných dat nemuselo vyžadovat téměř tolik úsilí.
Závěr: Propletená Síť
Jen ti, kteří použili generativní AI extenzivně a po dlouhou dobu, budou instinktivně rozumět, že takové systémy bojují s kombinací více konceptů, když neexistují žádné srovnatelné příklady ve svých školicích datech.
Tato omezení je známo jako propletení, kde různé aspekty školených konceptů tendují k shlukování s souvisejícími prvky, spíše než rozkládají se do užitečných, Lego-stylu stavebních bloků, které lze uspořádat do jakéhokoli nového uspořádání, které by uživatel mohl požadovat.
Propletení je architektonická gravitační jáma, která je téměř nemožné uniknout, alespoň pro difuzní přístupy, které charakterizují všechny hlavní současné genAI rámce. Nicméně, může se stát, že se objeví nové přístupy v příštích letech, které budou lépe schopny diskrétně rozkládat školené koncepty, aby je bylo možné lépe skládat, a nabízet méně indikací o jejich původu.
* Nechci činit žádné obvinění proti EffectMaker, ale komentuji zde obecnost vznikající praxe ve výzkumu AI videa.
† Protože tyto shoty, v těchto typech filmů, generují a pokračují v generování peněz.
Poprvé publikováno v pondělí, 16. března 2026
Góc nhìn Anderson
आईपी-वॉशिंग विधियां एआई में

यदि बुद्धिमत्ता के उपयोग में बौद्धिक संपदा के उपयोग पर कानूनी निपटारा होने वाला है, तो ऐसे उपयोग को धुंधला करने के कई तरीके हैं।
राय वर्तमान, तेजी से आगे बढ़ने वाली एआई में उत्पन्न हो रही क्रांति सबसे कानूनी रूप से संदेहास्पद वातावरण में हो रही है जो किसी भी परिवर्तनकारी प्रौद्योगिकी विकास के साथ हुई है उन्नीसवीं शताब्दी के बाद से।
तीन-चार साल पहले तक, मशीन लर्निंग अनुसंधान समुदाय को आईपी-संरक्षित सामग्री का शोषण करने की एक मौन (अक्सर स्पष्ट) अनुमति थी; चूंकि ये प्रणालियाँ अभी तक परिपक्व या व्यावसायिक रूप से व्यवहार्य नहीं थीं, इसलिए परिणाम हर अर्थ में शैक्षणिक थे।
इस अवधि में, एक नए पीढ़ी के अपवर्ती आधारित बड़े भाषा मॉडल (एलएलएम, जैसे कि चैटजीपीटी और क्लाउड) और दृष्टि-भाषा मॉडल (वीएलएम, जैसे कि सोरा) की अचानक सफलता ने संकेत दिया कि ये अमूर्त और पहले ‘हानिरहित’ शोध के तार व्यावसायिक रूप से व्यवहार्य हो गए थे और अपने ‘मुफ्त पास’ से बाहर निकल गए थे, जहां तक दूसरों की बौद्धिक संपदा का शोषण था।
अब से, अधिकार धारक उन एआई प्रणालियों के फलों में हिस्सा मांगेंगे जो उनके कॉपीराइट या अन्य संरक्षित डेटा पर प्रशिक्षित हैं, जिससे लगातार कानूनी मामलों की बारिश हो रही है जिसके लिए कुछ प्रयास की आवश्यकता है कि उन्हें ट्रैक करने के लिए भी।

यहाँ सीमित केवल अमेरिका में लाए गए मामलों तक, नए मामले अमेरिका और उसके बाहर तेजी से उत्पन्न हो रहे हैं। स्रोत
‘मुफ्त भोजन’ को अनिवार्य करना
एआई-सेवा बुनियादी ढांचे में वित्तीय प्रतिबद्धता वर्तमान में हो रही है एआई को इतनी गहराई से अर्थव्यवस्था में समाहित करने के प्रयास के रूप में देखी जा सकती है कि यह न केवल ‘विफल नहीं होने’ के लिए बहुत बड़ा हो जाए, बल्कि ‘मुकदमा चलाने’ के लिए भी बहुत शक्तिशाली हो जाए – या कम से कम, इतना शक्तिशाली कि सफल मुकदमे को क्रांति को उलटने देने की अनुमति नहीं दी जा सकती।
इस सामान्य भावना की ओर, संयुक्त राज्य अमेरिका के वर्तमान राष्ट्रपति नीति में अपने दृष्टिकोण को प्रतिबद्ध कर रहे हैं कि ‘आपको यह उम्मीद नहीं करनी चाहिए कि आपके पास एक सफल एआई कार्यक्रम होगा जब हर एक लेख, पुस्तक, या कुछ और जो आपने पढ़ा है या अध्ययन किया है, आपको इसके लिए भुगतान करना होगा’.
वास्तव में? कुछ भी ऐसा नहीं हुआ है जो पश्चिमी औद्योगिक युग में हुआ हो, और यह पारंपरिक अमेरिकी संस्कृति के खिलाफ जाता है जो मुकदमेबाजी और मुआवजे की है। शायद सबसे निकटतम समान स्थितियाँ चिकित्सा पेटेंट की 20 वर्षों के बाद अनिवार्य समाप्ति (जो स्वयं अक्सर हमले के अधीन है), और सीमा पर गोपनीयता की अपेक्षा को सार्वजनिक स्थानों पर रखा जाता है।
हालांकि, समय बदलते हैं; वर्तमान प्रवृत्ति के खिलाफ कोई गारंटी नहीं है कि ‘प्रमुख अधिकार’ के खिलाफ आईपी सुरक्षा का उल्लंघन नहीं होगा, या बाद में उलट जाएगा, एआई प्रणालियों के विकास और विवादित प्रशिक्षण डेटा के इलाज में मानक अभ्यास बन रहे कई द्वितीयक दृष्टिकोण हैं।
डेटासेट-द्वारा-प्रॉक्सी
इनमें से एक दृष्टिकोण टोरेंट-सूची साइटों द्वारा अपनाई गई (न कि हमेशा सफल) रक्षा के समान दृष्टिकोण का पालन करता है जो यह दावा करते हैं कि वे वास्तव में किसी भी विवादित सामग्री को होस्ट नहीं करते हैं – या कोई सामग्री होस्ट नहीं करते हैं।
इसके अलावा बड़े पैमाने पर छवि या वीडियो डेटा को संग्रहीत और परोसने की आवश्यकता को समाप्त करने के अलावा, इस तरह के संग्रह तेजी से अद्यतन की अनुमति देते हैं – जैसे कि कॉपीराइट धारकों के अनुरोध पर सामग्री को हटाना – और संस्करण।
जैसे टोरेंट केवल बताते हैं कि आईपी-संरक्षित सामग्री कहाँ पाई जा सकती है, कई प्रभावशाली डेटासेट स्वयं केवल ‘पॉइंटर’-शैली की सूची हैं जो मौजूद डेटा की है। यदि अंतिम उपयोगकर्ता इन सूचियों को अपने स्वयं के डेटासेट के लिए डाउनलोड सूची के रूप में उपयोग करना चाहता है, तो यह उनके लिए है, जहां तक क्यूरेटर की देयता का संबंध है।
इनमें से एक है गूगल रिसर्च का कॉन्सेप्टुअल 12एम डेटासेट, जो छवियों के लिए कैप्शन प्रदान करता है, लेकिन केवल उन स्थानों पर इंगित करता है जहां ये छवियां मौजूद हैं (या संकलन के समय मौजूद थीं):

गूगल रिसर्च के कॉन्सेप्टुअल 12एम संकलन से दो उदाहरण。 स्रोत
एक अन्य प्रमुख उदाहरण, और जो अब एआई के इतिहास में सम्मान का दावा करने का हकदार है, लायोन डेटासेट है जिसने 2022 में स्टेबल डिफ्यूजन उत्पन्न प्रणाली को सुविधा प्रदान की – एंड-यूज़र्स को खुले स्रोत उत्पन्न छवियों की पेशकश करने वाला पहला ऐसा ढांचा जैसा कि प्रोप्राइटरी सिस्टम ऐसी सेवाओं को एक शुद्ध रूप से बंद, व्यावसायिक डोमेन के रूप में स्थापित करने वाले थे:

लायोन परियोजना के कई रूपांतरों में से एक, जिसमें आधुनिक और कॉपीराइट किए गए कलाकृतियाँ हैं। स्रोत
इन ‘पॉइंटर’ संग्रहों में से कई में उच्च फ़ाइल आकार इंगित करते हैं कि छवि सामग्री एक डाउनलोड की गई और होस्ट की गई फ़ाइल में शामिल है; हालांकि, गैर-मामूली डाउनलोड आकार अक्सर पाठ सामग्री की उच्च मात्रा के कारण होते हैं, और कभी-कभी निकाले गए एम्बेडिंग या विशेषताओं – प्रशिक्षण प्रक्रिया के दौरान स्रोत डेटा से निकाले गए सारांश या नोड्स को अन्यथा लागू किया जा सकता है।
वीडियो प्रीमियम
वीडियो डेटासेट ‘डेटासेट-द्वारा-प्रॉक्सी’ या पॉइंटर दृष्टिकोण के लिए एक और मजबूत मामला प्रस्तुत करते हैं, क्योंकि एक अर्थपूर्ण और उपयोगी संख्या में वीडियो को एकल डाउनलोड करने योग्य संग्रह में एकत्र करने के लिए आवश्यक भंडारण डेटा की मात्रा निषिद्ध है, और एक ‘वितरित’ विधि वांछनीय है।
हालांकि, दोनों मामलों में – लेकिन विशेष रूप से वीडियो के साथ – डाउनलोड करने योग्य स्रोत यूआरएल वे डेटा का प्रतिनिधित्व करते हैं जिन्हें प्रशिक्षण प्रक्रियाओं में उपयोग करने से पहले महत्वपूर्ण अतिरिक्त ध्यान देने की आवश्यकता होगी। दोनों छवियों और वीडियो को उपलब्ध जीपीयू स्थान में फिट होने के लिए पुनः आकार देने की आवश्यकता होगी, या फिर फसल चयन करने होंगे, जैसे कि 3-5 सेकंड, आमतौर पर।
नोटेबल वीडियो डेटासेट जो ऑनलाइन वीडियो (वीडियो के सीधे पैकेजिंग के बजाय) के संदर्भ का उपयोग करते हैं उनमें गूगल का काइनेटिक्स मानव क्रिया वीडियो डेटासेट और सर्च जाइंट का यूट्यूब-8एम संग्रह शामिल है, जो सेगमेंट एनोटेशन का उपयोग करता है यह इंगित करने के लिए कि प्रत्येक वीडियो को डाउनलोड करने के बाद कैसे व्यवहार किया जाए – लेकिन फिर से अंतिम उपयोगकर्ता को आपूर्ति किए गए यूआरएल से वीडियो प्राप्त करने के लिए छोड़ देता है।
बंद और खुला
अंत में, इस श्रेणी में, ‘खुला’ वीएफएक्स डेटा बंद मंचों के साथ उत्पन्न किया जा सकता है जो परिणामस्वरूप डेटासेट को प्रकाशित और उपलब्ध कराते हैं। यह जानना उचित है कि यह क्यों होता है, और यह विचार करना कि क्या यह इसलिए हो सकता है क्योंकि मूल कंपनी अपने स्वयं के उपयोग के लिए एक आईपी-अनुकूल अपस्ट्रीम मॉडल को स्वच्छ बनाना चाहती है; या कि एक ‘धुला हुआ’ सेट बाहर से अनुरोध किया गया था।
एक ऐसा मामला ‘पीढ़ीगत धुलाई’ का है, जो ओम्नी-वीएफएक्स डेटासेट है, जो ओपन-वीएफएक्स डेटासेट (जो स्वयं पिका और पिक्सवर्स जैसे बंद और अर्ध-बंद प्लेटफार्मों के कई डेटा बिंदुओं को संदर्भित करता है) से कई डेटा बिंदुओं को एकीकृत करता है।
ईमानदारी से, ओम्नी-वीएफएक्स वास्तव में प्रयास नहीं कर रहा है:

खुले स्रोत ओम्नी-वीएफएक्स डेटासेट में, एक परिचित चेहरा। स्रोत
पूर्ववर्ती देयता
आईपी-वॉशिंग के लिए दूसरा प्रमुख दृष्टिकोण एक या कई हटाने पर कॉपीराइट सामग्री का उपयोग करना है। इस श्रेणी में एक विधि सिंथेटिक डेटा का उपयोग है जो किसी बिंदु पर अपस्ट्रीम में कॉपीराइट डेटा पर प्रशिक्षित किया गया है। ऐसे मामलों में, विशेष रूप से जहां सिंथेटिक डेटा वास्तविक दिखने वाले परिणाम प्राप्त करने में सक्षम है, कॉपीराइट कार्य परिवर्तनों को प्रदान करता है जो सामान्य दुनिया के मॉडल द्वारा या विशेषज्ञता के बिना मॉडल द्वारा तर्कसंगत रूप से अनुमानित या अनुमानित नहीं किया जा सकता है।
यह विशेष रूप से सच है जहां उत्पन्न वीडियो प्रणालियों को ‘असंभव’ घटनाओं और घटनाओं का उत्पादन करने की आवश्यकता होती है जो सामान्य रूप से ‘विजुअल इफेक्ट्स’ (वीएफएक्स) की श्रेणी में आती हैं।
वास्तव में, जिसने इस विषय को मेरे ध्यान में लाया वह最新 शोध पत्रों की एक श्रृंखला में से एक है जो विभिन्न प्रकार के विजुअल प्रभावों को ‘अभिव्यक्त’ करने की क्षमता प्रदान करता है, जैसे कि शरीर के असंभव भागों से लेजर बीम का उत्पादन करना:
इफेक्टमेकर वेबसाइट से, जहां स्रोत क्लिप (बाएं) में ‘क्रिया’ को स्रोत छवि (केंद्र) पर लागू किया जाता है। स्रोत
उपरोक्त उदाहरण प्रोजेक्ट पेज से हैं इफेक्टमेकर परियोजना के लिए। इफेक्टमेकर इस साल का पहला प्रस्ताव नहीं है जो एक वीडियो क्लिप से वीएफएक्स गतिविधियों को निकालने और इसे एक नए क्लिप में स्थानांतरित करने का प्रयास करता है, और वास्तव में यह एआई वीएफएक्स अनुसंधान में एक विशिष्ट उप-कार्य में बदल रहा है*।
यह जानते हुए कि मीडिया की दिग्गज कंपनियां जैसे मार्वल को आईपी पर कानूनी मामलों में जीतने की एक उच्च संभावना है (यहां तक कि उल्लिखित जलवायु में ‘प्रवर्तित सहनशीलता’ के साथ), वीएफएक्स कंपनियां और स्टार्टअप वर्तमान में अपने उत्पन्न वीएफएक्स फ्रेमवर्क को दूसरी कंपनियों के कॉर्पोरेट आईपी से मुक्त करने के लिए उल्लेखनीय प्रयास कर रहे हैं।
इनमें से सबसे आगे मेटा है, जिसे आर/वीएफएक्स सबरेडिट पर रिपोर्ट किया गया है कि इसने 2026 में एक अच्छी तरह से भुगतान वाले सर्दियों के भर्ती अभियान पर जाने के लिए वीएफएक्स कलाकारों को काम पर रखा है ताकि एआई मॉडल को हॉलीवुड स्तर के विजुअल इफेक्ट शॉट्स का उत्पादन करने के लिए प्रशिक्षित किया जा सके। हालांकि विभिन्न पोस्ट में वेतन का उल्लेख नहीं किया गया था, एक ने इसे ‘सेवानिवृत्ति का पैसा’ कहा।
पैसे का पालन करें
हालांकि, यह सोचना होगा कि मेटा जैसी कंपनियां वास्तव में एक वास्तविक विविधता और वीएफएक्स शॉट्स की बहुतायत के लिए कितना पैसा देने को तैयार हैं, यह देखते हुए कि एक ब्लॉकबस्टर फिल्म के लिए एक औसत वीएफएक्स शॉट लगभग 42,000 अमेरिकी डॉलर है – और कई अधिक महंगे हैं।
इसके अलावा, यह तर्कसंगत है कि बेस्पोक वीएफएक्स-उत्पन्न एआई मॉडल लोकप्रिय मांग के अनुसार झुकेंगे, जिसमें सबसे लोकप्रिय और सबसे महंगे श्रेणियों की फिल्मों से मानक प्रभाव शामिल हैं।
इसके अलावा यह तथ्य कि ‘शेष’ वीएफएक्स पेशेवर अंततः उन शॉट्स को पुनर्निर्माण कर सकते हैं जिन पर उन्होंने मौजूदा फिल्म कैटलॉग के लिए काम किया है – जो स्वयं पैसा कमाते हैं और कमाते रहते हैं – को संदर्भित करते हुए ‘कस्टम’ डेटासेट कार्य को अनुकरणीय के रूप में संदर्भित करता है।
वास्तव में, यदि ऐसे पुनर्निर्माण को लोरास जैसे संलग्न मॉड्यूल में मोड़ दिया जाता है, जो एक बेस मॉडल पर निर्भर करते हैं, तो प्रक्रिया तब तक ही रक्षात्मक है जब तक कि बेस मॉडल ‘आईपी-स्वच्छ’ न हो – और बहुत से ऐसे नहीं हैं।
इसी तरह, यदि ‘नया’ प्रक्रिया फाइन-ट्यूनिंग जैसी ‘हाइब्रिड’ तकनीकों का उपयोग करती है, जहां विजुअल प्रभाव का मूल्य पुराने संग्रह या मॉडल से प्राप्त मॉडल, प्राथमिकताएं या एम्बेडिंग पर निर्भर करता है, तो काम की मौलिकता वास्तव में त्वचीय है और चुनौती के अधीन है।
असंभव मिशन
वीएफएक्स आउटपुट का डोमेन आईपी-वॉशिंग में एक विशेष रूप से दिलचस्प मामला अध्ययन है, क्योंकि विज
Góc nhìn Anderson
Metode Pencucian IP di AI

Jika ada penyelesaian hukum yang akan datang atas penggunaan kekayaan intelektual dalam pelatihan AI, ada beberapa metode untuk mengaburkan penggunaan tersebut.
Opini Revolusi AI generatif saat ini yang sedang berkembang dengan cepat terjadi dalam lingkungan hukum yang paling tidak stabil yang telah menyertai setiap perkembangan teknologi transformasional sejak abad ke-19.
Sampai 3-4 tahun yang lalu, komunitas penelitian pembelajaran mesin menikmati izin tersirat (sering eksplisit) untuk mengeksploitasi materi yang dilindungi IP dalam pengembangan sistem baru; karena sistem ini belum berhasil, dalam arti belum matang atau layak secara komersial, hasilnya, dalam setiap arti, akademis.
Dalam periode tersebut, kesuksesan tiba-tiba dari generasi baru model bahasa besar berbasis difusi (LLM, seperti ChatGPT dan Claude) dan Model Bahasa-Visi (VLM, seperti Sora) menandakan bahwa benang-benang penelitian abstrak dan sebelumnya ‘tidak berbahaya’ ini telah berkembang menjadi layak secara komersial, dan outgrown ‘free pass’ mereka, sejauh penggunaan kekayaan intelektual orang lain yang bersangkutan.
Dari sekarang, pemegang hak akan mencari bagian dalam hasil sistem AI yang dilatih sebagian besar atau sebagian pada data yang dilindungi hak cipta atau dilindungi lainnya, yang menyebabkan avalanche kasus hukum yang sedang berlangsung yang memerlukan usaha untuk bahkan memantau.

Di sini terbatas hanya pada kasus yang dibawa di AS, kasus baru muncul dengan kecepatan yang frenetik di Amerika Serikat dan di luar negeri. Sumber
Mengharuskan ‘Makan Siang Gratis’
Komitmen keuangan saat ini terjadi sehubungan dengan infrastruktur AI telah dipostulatkan oleh beberapa suara sebagai upaya untuk mengukuhkan ‘bahaya hak cipta’ AI sehingga dalam di dalam ekonomi masyarakat sehingga menjadi tidak hanya ‘terlalu besar untuk gagal’, tetapi juga ‘terlalu kuat untuk digugat’ – atau terlalu kuat, setidaknya, sehingga gugatan yang sukses bisa diizinkan untuk mengguncang revolusi.
Terhadap sentimen umum ini, presiden saat ini Amerika Serikat mengkomitmen ke dalam kebijakan pandangannya bahwa ‘Anda tidak bisa diharapkan memiliki program AI yang sukses ketika setiap artikel, buku, atau apa pun yang telah Anda baca atau pelajari, Anda harus membayarnya’.
Benarkah? Tidak ada yang sama atau dapat dibandingkan yang telah terjadi dalam era industri Barat, dan ini mewakili gerakan yang menggosok dengan keras terhadap budaya tradisional AS dari litigasi dan reparasi; mungkin posisi yang paling mirip adalah kedaluwarsa wajib paten obat setelah 20 tahun (yang sendiri sering diserang), dan batasan pada harapan privasi di tempat umum.
Namun, waktu berubah; dalam ketiadaan jaminan bahwa tren saat ini menuju ‘domain yang ditekan’ terhadap perlindungan IP tidak akan gagal, atau bahkan dibalik nanti, ada beberapa pendekatan sekunder yang menjadi praktik standar dalam pengembangan sistem AI, dan perlakuan data pelatihan yang sangat diperdebatkan yang memungkinkannya.
Dataset-by-Proxy
Salah satu pendekatan ini mengambil pendekatan yang sangat mirip dengan pertahanan oleh situs torrent-daftar yang mereka tidak benar-benar menyimpan materi yang diperdebatkan – atau materi apa pun.
Selain menghilangkan kebutuhan untuk menyimpan dan melayani jumlah besar data gambar atau video yang minimally-kompres, koleksi semacam ini memungkinkan pembaruan yang cepat – seperti penghapusan materi atas permintaan pemegang hak cipta – dan versi.
Sama seperti torrent hanya tanda-tanda ke mana materi yang dilindungi IP dapat ditemukan, sejumlah dataset yang sangat berpengaruh hanya ‘pointer’-style daftar data yang ada; jika pengguna akhir ingin menggunakan daftar ini sebagai daftar unduhan untuk dataset mereka sendiri, itu tergantung pada mereka, sejauh kewajiban kurator yang bersangkutan.
Di antara ini adalah dataset Conceptual 12M dari Google Research, yang menyediakan keterangan untuk gambar, tetapi hanya menunjuk ke lokasi di web di mana gambar-gambar ini ada (atau ada pada saat kurasi):

Dua contoh dari kurasi Conceptual 12M. Sumber
Contoh lain yang menonjol, dan yang sekarang memiliki klaim yang valid untuk reverensi dalam sejarah AI, adalah dataset LAION yang memfasilitasi kemunculan sistem generatif Stable Diffusion pada 2022 – sistem generatif pertama yang menawarkan gambar generatif terbuka kepada pengguna akhir, ketika sistem propietary tampaknya akan menetapkan layanan semacam itu sebagai domain komersial yang murni:

Salah satu varian dari proyek LAION, menampilkan karya seni modern dan berhak cipta. Sumber
Dalam banyak kasus, ukuran file yang besar dari beberapa koleksi ‘pointer’ ini menunjukkan inklusi konten gambar dalam file yang dapat diunduh dan disimpan; namun, ukuran unduhan yang tidak trivial sering kali disebabkan oleh volume teks yang tinggi, dan terkadang inklusi embedding yang diekstrak atau fitur – ringkasan atau node dari konten sumber yang diekstrak selama proses pelatihan.
Video Premium
Dataset video menyajikan kasus yang lebih kuat untuk pendekatan ‘dataset-by-proxy’ atau pointer, karena volume penyimpanan data yang diperlukan untuk mengumpulkan jumlah video yang bermakna dan berguna dalam koleksi tunggal sangat besar, dan metode ‘terdistribusi’ diinginkan.
Namun, dalam kedua kasus – tetapi terutama dengan video – URL sumber yang dapat diunduh mewakili data yang akan memerlukan perhatian lebih lanjut sebelum digunakan dalam proses pelatihan. Baik gambar maupun video akan memerlukan pengubahan ukuran, atau keputusan pemotongan dibuat, untuk menciptakan sampel yang akan sesuai dengan ruang GPU yang tersedia. Bahkan video yang sangat downsampling juga akan memerlukan pemotongan menjadi panjang yang sangat singkat, seperti 3-5 detik, biasanya.
Dataset video yang terkenal yang menggunakan referensi ke video online (bukan kurasi dan pengemasan langsung video) termasuk dataset Kinetics Human Action Video dari Google, dan koleksi YouTube-8M dari raksasa pencarian, yang menggunakan annotasi segmen untuk menunjukkan bagaimana memperlakukan setiap video sekali diunduh – tetapi yang sekali lagi meninggalkan pengguna akhir untuk mendapatkan video dari URL yang disediakan.
Tertutup dan Terbuka
Akhirnya, dalam kategori ini, data VFX ‘terbuka’ dapat dihasilkan dengan platform tertutup yang kemudian menerbitkan dan membuat dataset yang dihasilkan tersedia. Ini masuk akal untuk bertanya-tanya mengapa ini terjadi, dan untuk mempertimbangkan apakah ini mungkin karena perusahaan asal ingin mensanitasi model hulu yang tidak ramah IP, untuk kegunaan mereka sendiri; atau bahwa ‘set yang dicuci’ diminta dari luar.
Salah satu kasus ‘pencucian generasi’ adalah, secara argumentatif, dataset Omni-VFX, yang menggabungkan banyak titik data dari dataset Open-VFX (yang sendiri merujuk pada banyak platform tertutup dan semi-tertutup, seperti Pika dan PixVerse).
Untuk jujur, Omni-VFX tidak bahkan mencoba:

Di dataset Omni-VFX sumber terbuka, sebuah wajah yang familiar. Sumber
Tanggung Jawab Ancestral
Pendekatan kedua besar untuk pencucian IP adalah melalui penggunaan materi yang dilindungi hak cipta pada satu atau banyak tingkat. Salah satu metode dalam kategori ini adalah penggunaan data sintetis yang telah dilatih, pada suatu titik hulu, pada data yang dilindungi hak cipta. Dalam kasus seperti ini, terutama di mana data sintetis dapat menghasilkan hasil yang terlihat otentik, karya yang dilindungi hak cipta menyediakan transformasi yang tidak mungkin ditebak atau diapproximasi oleh model umum atau non-spesialis.
Ini sangatlah kasus di mana sistem generatif video memerlukan untuk menghasilkan ‘peristiwa yang tidak mungkin’, dan peristiwa yang akan jatuh umumnya ke dalam kategori ‘efek visual’ (VFX).
Sebenarnya, apa yang membawa topik ini ke pikiran adalah makalah penelitian terbaru yang menawarkan kemampuan untuk ‘mengabstraksi’ berbagai jenis efek visual, seperti menghasilkan sinar laser dari bagian tubuh yang tidak mungkin, dengan dilatih pada klip VFX yang dikomisi atau ‘sumber terbuka’ (bukan sumber yang lebih jelas, seperti tembakan VFX yang sangat mahal dari output universe sinematik Marvel):
Contoh dari situs web EffectMaker, di mana ‘aksi’ dalam klip sumber (jauh kiri) diterapkan ke gambar sumber (tengah). Sumber
Contoh di atas berasal dari halaman proyek untuk proyek EffectMaker. EffectMaker bukanlah penawaran pertama tahun ini yang mencari untuk mengekstrak dinamika VFX dari satu klip video dan memindahkannya ke klip baru, dan sebenarnya ini sedang menjadi tugas sub-tugas diskrit dalam penelitian VFX AI*.
Sadari bahwa raksasa media seperti Marvel memiliki kemungkinan yang lebih tinggi untuk memenangkan kasus hukum atas IP (bahkan dalam iklim ‘toleransi yang dipaksakan’), perusahaan efek visual dan startup saat ini melakukan upaya besar untuk memastikan bahwa kerangka VFX generatif mereka bebas dari IP perusahaan lain.
Terutama di antaranya adalah Meta, yang telah dilaporkan di subreddit r/vfx untuk melakukan perekrutan musim dingin yang terbayar dengan baik pada tahun 2026, menawarkan seniman VFX pekerjaan melatih model AI untuk menghasilkan tembakan efek visual level Hollywood. Meskipun gaji tidak ditentukan di seluruh posting, satu menggambarkannya sebagai ‘uang pensiun’.
Mengikuti Uang
Namun, seseorang harus bertanya-tanya berapa banyak uang bahkan seperti Meta yang mau membayar untuk keanekaragaman dan kelimpahan tembakan VFX ad hoc yang sebenarnya, mengingat bahwa satu tembakan VFX rata-rata untuk film blockbuster adalah sekitar $42.000 USD – dan banyak datang jauh lebih tinggi.
Lebih lanjut, masuk akal bahwa model AI VFX generatif yang dibuat khusus akan mengikuti permintaan populer, termasuk berbagai efek standar dari kategori film paling populer dan paling mahal.
Selain dari sudut pandang bahwa profesional VFX yang ‘tersisa’ mungkin berakhir merekayasa ulang tembakan yang mereka kerjakan untuk katalog film yang ada† – yang dalam dirinya sendiri mengkontekstualisasikan pekerjaan dataset khusus sebagai imitasi – tidak ada jaminan bahwa sampel baru yang mahal ini akan berakhir dilatih ‘dari nol’ dalam arsitektur baru.
Sebenarnya, jika rekreasi semacam ini diarahkan ke modul tambahan seperti LoRAs, yang bergantung pada model dasar, maka proses ini hanya sebagus model dasar adalah ‘bersih IP’ – dan tidak banyak yang seperti itu.
Serupa, jika ‘proses baru’ menggunakan teknik ‘hybrid’ seperti fine-tuning, di mana nilai efek visual bergantung pada model, prior, atau embedding dari koleksi atau model lama yang integritasnya tidak terbukti, orisinalitas pekerjaan ini secara argumentatif kosmetik, dan tunduk pada tantangan.
Misi yang Tidak Mungkin
Domain output VFX adalah kasus yang sangat menarik dalam kaitannya dengan potensi pencucian IP dalam dataset AI, karena tembakan efek visual sering menggambarkan ‘hal yang tidak mungkin’ yang tidak akan ada alternatif sumber terbuka yang tersedia.
Misalnya, jika Anda ingin melatih model untuk menghasilkan sinar laser manusia, Anda akan memerlukan untuk melatih pada klip VFX, dicuri atau dikomisi; hal seperti itu tidak terjadi di tempat lain.
Bahkan dalam kasus bencana alam lainnya, seperti banjir dramatis, materi sumber yang tersedia tidak mungkin dapat mereproduksi POV dramatis pada peristiwa bencana, karena (dengan beberapa pengecualian) orang tidak biasanya live-stream dari lokasi bencana. Oleh karena itu, ‘pemandangan yang keren’ pada bencana langka dalam dataset dunia nyata, dan model AI mana pun yang dapat menghasilkannya kemungkinan mendapatkan informasi dari tempat lain.
Sebagian besar alur tugas AI yang diinginkan tidak memiliki tingkat spesifisitas yang sama, dan dalam kasus seperti itu, pengaburan manfaat dari data yang dilindungi IP mungkin tidak memerlukan usaha yang sama.
Kesimpulan: Jaring yang Terjalin
Hanya mereka yang telah menggunakan AI generatif secara ekstensif dan selama periode yang berkelanjutan akan memahami secara intuitif bahwa sistem seperti itu berjuang untuk menggabungkan konsep multiple ketika tidak ada contoh yang comparable dalam data pelatihan mereka.
Batasan ini dikenal sebagai pengikatan, di mana berbagai aspek konsep yang dilatih cenderung mengelompokkan bersama dengan elemen yang terkait, bukan memecah menjadi balok bangunan yang berguna yang dapat disusun menjadi konfigurasi baru yang diinginkan pengguna.
Pengikatan adalah gravitasi arsitektur yang hampir tidak mungkin untuk melarikan diri, setidaknya untuk pendekatan berbasis difusi yang karakteristik dari semua kerangka AI generatif saat ini. Namun, mungkin bahwa pendekatan baru muncul dalam beberapa tahun ke depan yang lebih baik dalam mendiskretkan konsep yang dilatih sehingga mereka dapat disatukan dengan lebih adroit, dan menawarkan fewer indikasi tentang provenance mereka.
* Saya tidak membuat tuduhan terhadap EffectMaker, tetapi berkomentar di sini tentang keumuman praktik yang muncul dalam penelitian video AI.
† Karena tembakan ini, dalam jenis film ini, telah menghasilkan dan terus menghasilkan uang.
Dipublikasikan pertama kali pada hari Senin, 16 Maret 2026
Góc nhìn Anderson
Metodi di IP-Washing in AI

Se ci sarà un regolamento legale da venire sull’uso della proprietà intellettuale nell’addestramento dell’AI, ci sono anche diversi metodi per oscurare tale utilizzo.
Opinione La rivoluzione attuale e in rapida evoluzione nell’AI generativa si sta svolgendo nell’ambiente legale più precario che abbia accompagnato qualsiasi sviluppo tecnologico trasformativo dal XIX secolo.
Fino a 3-4 anni fa, la comunità di ricerca sul machine learning godeva di un permesso tacito (spesso esplicito) di sfruttare materiali protetti da diritti d’autore nel corso dello sviluppo di nuovi sistemi; poiché questi sistemi non erano ancora riusciti, in termini di maturità o viabilità commerciale, i risultati erano, in ogni senso, accademici.
In quel periodo, il successo improvviso di una nuova generazione di Large Language Models basati sulla diffusione (LLM, come ChatGPT e Claude) e Vision-Language Models (VLM, come Sora) segnalò che questi filoni di ricerca astratti e fino ad allora ‘inoffensivi’ si erano sviluppati in una viabilità commerciale e avevano superato il loro ‘pass gratuito’, per quanto riguarda lo sfruttamento della proprietà intellettuale altrui.
Da ora in poi, i titolari dei diritti cercheranno una quota dei frutti dei sistemi AI addestrati in larga misura o in parte con dati protetti da diritti d’autore, portando a una valanga continua di casi legali che richiede uno sforzo per tenerne traccia.

Qui limitato solo ai casi portati negli Stati Uniti, nuovi casi emergono a un ritmo frenetico negli Stati Uniti e oltre. Fonte
Un ‘Pasto Gratis’
L’impegno finanziario attualmente in corso riguardo all’infrastruttura AI-serving è stato ipotizzato da alcune voci come un tentativo di radicare l’AI ‘pericolosa per i diritti d’autore’ così profondamente nell’economia della società da renderla non solo ‘troppo grande per fallire’, ma anche ‘troppo potente per essere citata in giudizio’ – o troppo potente, almeno, che le cause di successo potrebbero essere consentite di rovesciare la rivoluzione.
Verso questo sentimento generale, l’attuale presidente degli Stati Uniti sta impegnando nella politica la sua visione che ‘Non puoi aspettarti di avere un programma AI di successo quando ogni singolo articolo, libro o qualsiasi altra cosa che hai letto o studiato, devi pagare’.
Davvero? Nulla di simile o paragonabile è accaduto nell’era industriale occidentale, e questo rappresenta un movimento che si oppone severamente alla tradizionale cultura statunitense di lite e risarcimento; forse le posizioni più simili sono la scadenza obbligatoria dei brevetti farmaceutici dopo 20 anni (che è frequentemente sotto attacco), e la limitazione delle aspettative di privacy nei luoghi pubblici.
Tuttavia, i tempi cambiano; in assenza di qualsiasi garanzia che l’attuale tendenza verso il ‘dominio eminente’ contro le protezioni IP non vacillerà, o sarà invertita in seguito, ci sono diverse approcci secondari che stanno diventando pratica standard nello sviluppo di sistemi AI e nel trattamento dei dati di addestramento molto contestati che li alimentano.
Dataset-by-Proxy
Uno di questi approcci adotta un approccio notevolmente simile alla (non sempre riuscita) difesa dei siti di elenchi di torrent che non ospitano effettivamente alcun materiale contestato – o qualsiasi materiale.
Oltre a evitare la necessità di memorizzare e servire grandi quantità di dati di immagini o video compressibili, raccolte di questo tipo consentono un aggiornamento rapido – come la rimozione del materiale su richiesta dei titolari dei diritti d’autore – e la versione.
Proprio come i torrent sono solo segnali per indicare dove si può trovare il materiale protetto da diritti d’autore, diverse raccolte di dati molto influenti sono in sé solo elenchi ‘puntatore’ di dati esistenti; se l’utente finale desidera utilizzare questi elenchi come elenco di download per il proprio set di dati, è responsabilità dell’utente, per quanto riguarda la responsabilità dei curatori.
Tra questi c’è il set di dati Conceptual 12M di Google Research, che fornisce didascalie per immagini, ma punta solo a posizioni sul web dove queste immagini esistono (o esistevano al momento della cura):

Due esempi dalla curation di Google Research Conceptual 12M. Fonte
Un altro esempio prominente, e uno che ora ha una richiesta valida per la riverenza nella storia dell’AI, è il set di dati LAION che ha facilitato l’avvento del sistema generativo Stable Diffusion nel 2022 – il primo tale framework a offrire potenti immagini generative open source agli utenti finali, proprio mentre i sistemi proprietari sembravano stabilire tali servizi come un dominio puramente recintato e commerciale:

Una delle molte varianti del progetto LAION, con opere d’arte moderne e protette da diritti d’autore. Fonte
In molti casi le dimensioni dei file di queste ‘raccolte puntatore’ indicano l’inclusione di contenuti di immagini in un file scaricabile e ospitato; tuttavia, le dimensioni di download non banali sono spesso dovute al volume elevato di contenuto testuale e talvolta all’inclusione di estratti di embedding o funzionalità – riassunti o nodi di contenuto altrimenti applicabile estratto dai dati di origine durante il processo di addestramento.
Il Premium Video
I set di dati video presentano un caso ancora più forte per l’approccio ‘dataset-by-proxy’ o puntatore, poiché il volume elevato di dati di archiviazione richiesti per aggregare un numero significativo e utile di video in una singola raccolta scaricabile è proibitivo, e un metodo ‘distribuito’ è desiderabile.
Tuttavia, in entrambi i casi – ma particolarmente con i video – gli URL di origine scaricabile rappresentano dati che richiederanno un’attenzione significativa prima di essere utilizzati nei processi di addestramento. Sia le immagini che i video dovranno essere ridimensionati, o le decisioni di ritaglio dovranno essere prese, per creare campioni che si adattino allo spazio GPU disponibile. Anche i video molto campionati richiederanno un taglio a lunghezze molto brevi, come 3-5 secondi, tipicamente.
Degni di nota set di dati video che utilizzano riferimenti a video online (piuttosto che la cura e l’imballaggio diretto del video) includono il set di dati Kinetics Human Action Video Dataset di Google e la raccolta YouTube-8M della società di ricerca, che utilizza annotazione del segmento per indicare come trattare ogni video una volta scaricato – ma che lascia nuovamente all’utente finale l’ottenimento dei video dagli URL forniti.
Chiuso e Aperto
Infine, in questa categoria, i dati VFX ‘aperti’ possono essere generati con piattaforme chiuse che pubblicano e rendono disponibile il set di dati risultante. È ragionevole chiedersi perché ciò accada e considerare se possa essere perché l’azienda originaria desidera sanificare un modello a monte non amichevole per i diritti d’autore, per il proprio uso; o che un set ‘lavato’ sia stato richiesto da fuori.
Un tale caso di ‘lavaggio generazionale’ è, arguibile, il set di dati Omni-VFX, che incorpora molti punti di dati dal set di dati Open-VFX (che a sua volta fa riferimento a molte piattaforme chiuse e semi-chiuse, come Pika e PixVerse).
Per essere onesti, Omni-VFX non sta nemmeno cercando di nasconderlo:

Nel set di dati open source Omni-VFX, un volto familiare. Fonte
Responsabilità Ancestrale
Il secondo approccio principale per l’IP-washing è attraverso l’uso di materiale protetto da diritti d’autore a una o più rimozioni. Uno dei metodi in questa categoria è l’uso di dati sintetici che sono stati addestrati, in qualche punto a monte, su dati protetti da diritti d’autore. In tali casi, soprattutto dove i dati sintetici sono in grado di ottenere risultati autentici, il lavoro protetto da diritti d’autore fornisce trasformazioni che non potrebbero essere ragionevolmente indovinate o approssimate da modelli del mondo generale o non specializzati.
Ciò è particolarmente vero nel caso dei sistemi generativi video, che richiedono la generazione di ‘eventi impossibili’ e eventi che cadrebbero generalmente nella categoria degli ‘effetti visivi’ (VFX).
In effetti, ciò che ha portato questo argomento alla mia attenzione è stato l’ultimo di una serie di articoli di ricerca che offrono la capacità di ‘astrattizzare’ diversi tipi di effetti visivi, come la produzione di raggi laser da parti improbabili del corpo, sia addestrati su clip VFX commissionate su misura o ‘open source’ (piuttosto che la fonte più ovvia, come le molto costose riprese VFX trovate nel catalogo dei film della Marvel):
Esempi dal sito web EffectMaker, in cui l’ ‘azione’ nel clip di origine (a sinistra) viene applicata a un’immagine di origine (al centro). Fonte
Gli esempi sopra provengono dalla pagina del progetto per il progetto EffectMaker. EffectMaker non è nemmeno il primo a offrire questo tipo di servizio quest’anno, e in effetti questo sta diventando un compito discreto nella ricerca VFX AI*.
Consapevoli che i colossi dei media come Marvel hanno una probabilità superiore alla media di vincere casi legali su IP (anche nel clima di ‘tolleranza forzata’ menzionato), le società di effetti visivi e le startup stanno attualmente facendo grandi sforzi per assicurarsi che i loro framework VFX generativi siano liberi da IP aziendali altrui.
In primo luogo tra questi c’è Meta, che è stata segnalata sul subreddit r/vfx per aver fatto un’assunzione invernale ben compensata all’inizio del 2026, offrendo agli artisti VFX il lavoro di addestramento di modelli AI per produrre riprese di effetti visivi di livello Hollywood. Sebbene la retribuzione non sia stata specificata in vari post, uno l’ha descritta come ‘denaro per la pensione’.
Segui i Soldi
Tuttavia, uno si chiede quanto denaro anche i giganti come Meta siano disposti a pagare per una vera diversità e abbondanza di riprese VFX ad hoc – considerando che la singola ripresa VFX per un film di blockbuster è intorno ai 42.000 dollari – e molte sono molto più costose.
Inoltre, è ragionevole supporre che i modelli VFX generativi su misura accederanno alla domanda popolare, inclusi vari effetti standard da categorie di film più popolari e costose.
A parte il fatto che i professionisti VFX ‘rimanenti’ potrebbero finire per ricreare riprese che hanno lavorato per un catalogo di film esistente† – il che in sé contestualizza il lavoro del set di dati personalizzato come imitativo – non c’è alcuna garanzia che questi nuovi campioni costosi finiranno per essere addestrati ‘da zero’ in una nuova architettura.
In effetti, se tali ricreazioni vengono dirottate in moduli aggiuntivi come LoRAs, che si basano su un modello di base, allora il processo è solo difendibile quanto il modello di base è ‘pulito da IP’ – e non molti lo sono.
Allo stesso modo, se il ‘nuovo’ processo utilizza altre tecniche ‘ibride’ come fine-tuning, dove il valore dell’effetto visivo dipende da modelli, priors o embedding da raccolte o modelli più vecchi di integrità non dimostrata, l’originalità del lavoro è arguibile, e soggetta a sfida.
Missioni Impossibili
Il dominio dell’output VFX è un caso di studio particolarmente interessante per quanto riguarda il potenziale IP-washing nei set di dati AI, poiché le riprese degli effetti visivi spesso rappresentano ‘cose impossibili’ per le quali non ci saranno alternative open source disponibili.
Ad esempio, mentre la demolizione di un edificio potrebbe essere addestrata in un modello generativo da vari clip di stock di dominio pubblico o comunque accessibili, se si desidera addestrare un modello per produrre raggi laser umani, sarà necessario addestrare su clip VFX, rubate o commissionate; cose del genere non accadono da nessun’altra parte.
Anche nel caso di altri tipi di disastri naturali, come inondazioni drammatiche, il materiale di origine disponibile è improbabile che possa riprodurre punti di vista drammatici su eventi calamitosi, perché (con alcune eccezioni) le persone non di solito trasmettono in streaming da località catastrofiche. Pertanto, ‘viste cool’ su disastri sono rare nei set di dati del mondo reale, e qualsiasi modello AI che possa generarle probabilmente ha ottenuto le informazioni da qualche altra parte.
La maggior parte dei flussi di attività AI desiderabili non ha questo livello di specificità, e in tali casi l’oscuramento dei benefici dei dati protetti da diritti d’autore potrebbe non richiedere quasi tanto sforzo.
Conclusione: Rete Intrecciata
Solo coloro che hanno utilizzato l’AI generativa in modo estensivo e prolungato capiranno istintivamente che tali sistemi lottano per combinare più concetti quando non esistono esempi comparabili nei loro dati di addestramento.
Questa limitazione è nota come intreccio, in cui i vari aspetti dei concetti addestrati tendono a raggrupparsi con elementi correlati, piuttosto che decomporre in comodi mattoni Lego che possono essere disposti in qualsiasi nuova configurazione l’utente potrebbe desiderare.
L’intreccio è un pozzo di gravità architettonica che è praticamente impossibile da evitare, almeno per gli approcci basati sulla diffusione che caratterizzano tutti i principali framework AI attuali. Tuttavia, potrebbe essere che nuovi approcci emergano nei prossimi anni che sono migliori nel discretizzare i concetti addestrati in modo che possano essere combinati più abilmente, e offrono meno indicazioni sulla loro provenienza.
* Non faccio alcuna accusa contro EffectMaker, ma commento qui sulla generalità di una pratica emergente nella ricerca video AI.
† Perché queste riprese, in questi tipi di film, hanno generato e continuano a generare denaro.
Pubblicato per la prima volta lunedì 16 marzo 2026
Góc nhìn Anderson
Phương pháp Rửa IP trong Trí tuệ nhân tạo

Nếu có một sự tính toán pháp lý đến việc sử dụng tài sản trí tuệ trong đào tạo Trí tuệ nhân tạo, thì cũng có một số phương pháp che giấu việc sử dụng như vậy.
Ý kiến Cuộc cách mạng đang diễn ra nhanh chóng trong trí tuệ nhân tạo tạo ra là đang diễn ra trong môi trường pháp lý nguy hiểm nhất mà đã đi kèm với bất kỳ sự phát triển công nghệ chuyển đổi nào từ thế kỷ thứ mười chín.
Cho đến 3-4 năm trước, cộng đồng nghiên cứu học máy đã được phép khai thác tài liệu được bảo vệ bởi quyền sở hữu trí tuệ trong quá trình phát triển các hệ thống mới; vì những hệ thống này chưa thành công, về mặt trưởng thành hoặc khả năng thương mại, kết quả là, theo mọi nghĩa, học thuật.
Trong giai đoạn đó, sự thành công đột ngột của một thế hệ mới của các mô hình ngôn ngữ lớn dựa trên khuếch tán (LLMs, như ChatGPT và Claude) và Mô hình Ngôn ngữ-Tầm nhìn (VLMs, như Sora) cho thấy rằng những sợi nghiên cứu trừu tượng và trước đây ‘vô hại’ này đã phát triển thành khả năng thương mại, và đã vượt quá ‘hộ chiếu miễn phí’, về việc khai thác tài sản trí tuệ của người khác.
Từ bây giờ, những người nắm giữ quyền sẽ tìm kiếm một phần trong kết quả của các hệ thống Trí tuệ nhân tạo được đào tạo chủ yếu hoặc một phần trên dữ liệu được bảo vệ bởi quyền sở hữu trí tuệ của họ, dẫn đến một loạt các vụ việc pháp lý đang diễn ra đòi hỏi một số nỗ lực để thậm chí theo dõi.

Ở đây chỉ giới hạn ở các vụ việc được đưa ra ở Mỹ, các vụ việc mới xuất hiện với tốc độ nhanh chóng ở Hoa Kỳ và hơn thế nữa. Nguồn
Bắt buộc một ‘Bữa trưa miễn phí’
Cam kết tài chính hiện đang diễn ra liên quan đến cơ sở hạ tầng phục vụ Trí tuệ nhân tạo đã được đặt ra bởi một số tiếng nói như một nỗ lực để củng cố ‘Trí tuệ nhân tạo có hại về bản quyền’ sâu sắc vào kinh tế xã hội đến mức nó trở nên không chỉ ‘quá lớn để thất bại’, mà còn ‘quá mạnh để kiện’ – hoặc quá mạnh, ít nhất, rằng các vụ kiện thành công có thể được phép lật đổ cuộc cách mạng.
Về quan điểm chung này, tổng thống hiện tại của Hoa Kỳ đang cam kết vào chính sách quan điểm của mình rằng ‘Bạn không thể được mong đợi có một chương trình Trí tuệ nhân tạo thành công khi mỗi bài viết, sách, hoặc bất cứ điều gì khác mà bạn đã đọc hoặc nghiên cứu, bạn được yêu cầu phải trả tiền’.
Thật vậy? Không có gì tương tự hoặc so sánh đã xảy ra trong kỷ nguyên công nghiệp phương Tây, và điều này đại diện cho một phong trào mà mài mòn nghiêm trọng chống lại văn hóa truyền thống của Hoa Kỳ về kiện tụng và bồi thường; có lẽ vị trí tương tự nhất là việc hết hạn bắt buộc của các bằng sáng chế thuốc sau 20 năm (mình thường bị tấn công), và giới hạn về kỳ vọng về quyền riêng tư ở những nơi công cộng.
Tuy nhiên, thời gian thay đổi; trong sự vắng mặt của bất kỳ đảm bảo nào rằng xu hướng hiện tại hacia ‘thuộc địa’ chống lại các biện pháp bảo vệ quyền sở hữu trí tuệ sẽ không suy yếu, hoặc ngược lại, sau đó, có một số cách tiếp cận thứ cấp đang trở thành thông lệ trong việc phát triển các hệ thống Trí tuệ nhân tạo, và việc xử lý dữ liệu đào tạo tranh chấp mà cung cấp năng lượng cho nó.
Tập dữ liệu bằng Proxy
Một trong những cách tiếp cận này thực hiện một phương pháp tương tự như phương pháp phòng thủ (không luôn thành công) của các trang web liệt kê torrent rằng họ không thực sự lưu trữ bất kỳ tài liệu tranh chấp nào – hoặc bất kỳ tài liệu nào.
Ngoài việc loại bỏ nhu cầu lưu trữ và cung cấp một lượng lớn dữ liệu hình ảnh hoặc video không thể nén, các bộ sưu tập này cho phép cập nhật nhanh chóng – chẳng hạn như việc loại bỏ tài liệu tại yêu cầu của chủ sở hữu bản quyền – và phiên bản.
Giống như torrent chỉ là biển chỉ đến nơi tài liệu được bảo vệ bởi quyền sở hữu trí tuệ có thể được tìm thấy, một số tập dữ liệu có ảnh hưởng cao là chính họ chỉ là ‘con trỏ’ – danh sách các dữ liệu hiện có; nếu người dùng cuối muốn sử dụng những danh sách này như một danh sách tải xuống cho tập dữ liệu của họ, thì đó là trên họ, về mặt trách nhiệm của người quản lý.
Trong số đó là tập dữ liệu Conceptual 12M của Google Research, cung cấp chú thích cho hình ảnh, nhưng chỉ trỏ đến vị trí trên web nơi những hình ảnh này tồn tại (hoặc tồn tại tại thời điểm quản lý):

Hai ví dụ từ tập dữ liệu Conceptual 12M của Google Research. Nguồn
Một ví dụ nổi bật khác, và một trong những có một yêu cầu hợp lệ để tôn vinh trong lịch sử của Trí tuệ nhân tạo, là tập dữ liệu LAION đã tạo điều kiện cho sự ra đời của hệ thống tạo ra Stable Diffusion vào năm 2022 – hệ thống tạo ra đầu tiên cung cấp hình ảnh tạo ra mạnh mẽ và mã nguồn mở cho người dùng cuối, ngay khi các hệ thống độc quyền dường như thiết lập các dịch vụ như một lĩnh vực thương mại thuần túy:

Một trong những biến thể của dự án LAION, với các tác phẩm nghệ thuật hiện đại và được bản quyền. Nguồn
Trong nhiều trường hợp, kích thước tệp lớn của một số bộ sưu tập ‘con trỏ’ này cho thấy nội dung hình ảnh được bao gồm trong tệp có thể tải xuống và lưu trữ; tuy nhiên, kích thước tải xuống không tầm thường thường là do khối lượng lớn nội dung văn bản, và đôi khi bao gồm các bản nhúng trích xuất hoặc tính năng – tóm tắt hoặc nút của nội dung nguồn được áp dụng khác được trích xuất từ dữ liệu nguồn trong quá trình đào tạo.
Phí Premium cho Video
Tập dữ liệu video trình bày một trường hợp mạnh mẽ hơn cho phương pháp ‘tập dữ liệu bằng proxy’ hoặc con trỏ, vì khối lượng lưu trữ dữ liệu lớn cần thiết để tổng hợp một số lượng có ý nghĩa và hữu ích của video vào một bộ sưu tập có thể tải xuống là không thể chấp nhận được, và một phương pháp ‘phân tán’ là mong muốn.
Tuy nhiên, trong cả hai trường hợp – nhưng đặc biệt là với video – các URL nguồn có thể tải xuống đại diện cho dữ liệu sẽ cần sự chú ý đáng kể hơn trước khi được sử dụng trong các quá trình đào tạo. Cả hình ảnh và video sẽ cần được thay đổi kích thước, hoặc quyết định cắt được thực hiện, để tạo ra mẫu sẽ phù hợp vào không gian GPU có sẵn. Thậm chí video đã được giảm mẫu nghiêm trọng cũng sẽ yêu cầu cắt thành độ dài rất ngắn, chẳng hạn như 3-5 giây, thường.
Một số tập dữ liệu video đáng chú ý sử dụng tham chiếu đến video trực tuyến (thay vì quản lý và đóng gói video trực tiếp) bao gồm tập dữ liệu Kinetics Human Action Video của Google, và tập dữ liệu YouTube-8M của gã khổng lồ tìm kiếm, sử dụng chú thích phân đoạn để chỉ ra cách xử lý mỗi video một khi đã tải xuống – nhưng một lần nữa để người dùng cuối tải xuống video từ các URL được cung cấp.
Đóng và Mở
Cuối cùng, trong danh mục này, dữ liệu VFX ‘mở’ có thể được tạo ra với các nền tảng đóng mà sau đó xuất bản và cung cấp tập dữ liệu kết quả. Điều hợp lý khi tự hỏi tại sao điều này xảy ra, và xem xét liệu nó có thể xảy ra vì công ty ban đầu muốn làm sạch một mô hình thượng nguồn không thân thiện với IP; hoặc rằng một tập dữ liệu ‘rửa’ đã được yêu cầu từ bên ngoài.
Một trường hợp như vậy của ‘rửa thế hệ’ là, có thể lập luận, tập dữ liệu Omni-VFX, bao gồm nhiều điểm dữ liệu từ tập dữ liệu Open-VFX (mình tham chiếu nhiều nền tảng đóng và bán đóng, như Pika và PixVerse).
Để trung thực, Omni-VFX không thậm chí cố gắng:

Trong tập dữ liệu Omni-VFX mã nguồn mở, một khuôn mặt quen thuộc. Nguồn
Trách nhiệm tổ tiên
Phương pháp tiếp cận chính thứ hai để rửa IP là thông qua việc sử dụng tài liệu được bản quyền tại một hoặc nhiều lần loại bỏ. Một trong những phương pháp trong danh mục này là sử dụng dữ liệu tổng hợp đã được đào tạo, tại một số điểm thượng nguồn, trên dữ liệu được bản quyền. Trong những trường hợp như vậy, đặc biệt là khi dữ liệu tổng hợp có thể đạt được kết quả nhìn giống như thật, công việc được bản quyền cung cấp các biến đổi mà không thể hợp lý được đoán hoặc ước lượng bởi các mô hình thế giới chung hoặc không chuyên biệt.
Điều này đặc biệt đúng trong trường hợp các hệ thống tạo ra video, nơi đòi hỏi phải tạo ra ‘sự kiện không thể’ và sự kiện thuộc loại ‘hiệu ứng hình ảnh’ (VFX).
Trên thực tế, điều gì đã đưa chủ đề này đến tâm trí tôi là bài viết nghiên cứu mới nhất trong một loạt các bài viết nghiên cứu cung cấp khả năng ‘tóm tắt’ các loại hiệu ứng hình ảnh khác nhau, chẳng hạn như tạo ra chùm tia laser từ các bộ phận không thể của cơ thể, bằng cách đã được đào tạo trên các đoạn VFX tùy chỉnh hoặc ‘mã nguồn mở’ (thay vì nguồn rõ ràng hơn, chẳng hạn như các cảnh VFX rất tốn kém trong đầu ra từ vũ trụ điện ảnh Marvel):
Ví dụ từ trang web EffectMaker, nơi ‘hành động’ trong đoạn nguồn (phía xa bên trái) được áp dụng cho hình ảnh nguồn (giữa). Nguồn
Những ví dụ trên đến từ trang dự án cho dự án EffectMaker. EffectMaker không phải là đề xuất đầu tiên trong năm nay nhằm mục đích trích xuất động lực VFX từ một đoạn video và chuyển nó thành một đoạn mới, và trên thực tế, điều này đang trở thành một nhiệm vụ con riêng biệt trong nghiên cứu VFX Trí tuệ nhân tạo*.
Nhận thức được rằng các gã khổng lồ truyền thông như Marvel có khả năng cao hơn mức trung bình để thắng các vụ việc pháp lý về IP (ngay cả trong khí hậu ‘sự khoan dung cưỡng bức’ nói trên), các công ty và công ty khởi nghiệp về hiệu ứng hình ảnh đang đi đến những độ dài đáng kể để đảm bảo rằng các khuôn khổ VFX tạo ra của họ miễn phí khỏi IP doanh nghiệp của các công ty khác.
Đầu tiên trong số này là Meta, đã được báo cáo trên subreddit r/vfx đã đi vào một cuộc thu nạp mùa đông được trả lương vào năm 2026, cung cấp cho các nghệ sĩ VFX công việc đào tạo các mô hình Trí tuệ nhân tạo để tạo ra các cảnh VFX cấp Hollywood. Mặc dù mức lương không được chỉ định trên các bài đăng khác nhau, một đã mô tả nó là ‘tiền hưu’.
Theo dõi Tiền
Tuy nhiên, người ta phải tự hỏi bao nhiêu tiền thậm chí các công ty như Meta sẵn sàng trả cho sự đa dạng và phong phú thực sự của các cảnh VFX tùy chỉnh,考虑 đến việc một cảnh VFX duy nhất cho một bộ phim bom tấn là khoảng 42.000 USD – và nhiều cảnh có giá cao hơn nhiều.
Hơn nữa, điều hợp lý khi cho rằng các mô hình Trí tuệ nhân tạo tạo ra VFX tùy chỉnh sẽ đáp ứng nhu cầu phổ biến, bao gồm các hiệu ứng tiêu chuẩn từ các loại phim đắt tiền nhất.
Ngoài quan điểm rằng các chuyên gia VFX ‘còn lại’ có thể kết thúc việc tái tạo các cảnh mà họ đã làm việc trong một danh mục phim hiện có† – điều này tự nó đặt việc làm dữ liệu tùy chỉnh như một sự bắt chước – thì không có gì đảm bảo rằng những mẫu mới tốn kém này sẽ kết thúc được đào tạo ‘từ đầu’ trong một kiến trúc mới.
Thật vậy, nếu những sự tái tạo này bị chuyển hướng vào các mô-đun phụ như LoRAs, phụ thuộc vào một mô hình cơ sở, thì quá trình này chỉ là có thể bảo vệ được nếu mô hình cơ sở là ‘sạch về IP’ – và không nhiều mô hình như vậy.
Tương tự, nếu ‘quá trình mới’ sử dụng các kỹ thuật ‘hybrid’ như tinh chỉnh, nơi giá trị của hiệu ứng hình ảnh phụ thuộc vào các mô hình, priors, hoặc các bản nhúng từ các bộ sưu tập hoặc mô hình cũ hơn không có tính toàn vẹn, thì tính nguyên bản của công việc là có thể là thẩm mỹ, và có thể bị thách thức.
Nhiệm vụ không thể
Lĩnh vực đầu ra VFX là một trường hợp nghiên cứu đặc biệt thú vị liên quan đến việc rửa IP tiềm năng trong các tập dữ liệu Trí tuệ nhân tạo, vì các cảnh VFX thường mô tả ‘điều không thể’ mà không có không có giải pháp thay thế mã nguồn mở có sẵn.
Ví dụ, trong khi việc phá hủy một tòa nhà có thể được đào tạo vào một mô hình tạo ra từ các đoạn phim công cộng hoặc khác có thể mua được, nếu bạn muốn đào tạo một mô hình để tạo ra chùm tia laser của con người, bạn sẽ cần đào tạo trên các đoạn VFX, bị đánh cắp hoặc được ủy quyền; những thứ như vậy không xảy ra ở bất kỳ nơi nào khác.
Thậm chí trong trường hợp các loại thảm họa tự nhiên khác, chẳng hạn như lũ lụt kịch tính, tài liệu nguồn thực tế có sẵn không thể tái tạo các quan điểm kịch tính về các sự kiện thảm khốc, vì (với một số ngoại lệ) người ta không thường xuyên phát trực tuyến từ các vị trí thảm khốc. Do đó, ‘các tầm nhìn mát mẻ’ về thảm họa là hiếm trong các tập dữ liệu thực tế, và bất kỳ mô hình Trí tuệ nhân tạo nào có thể tạo ra chúng có khả năng đã nhận được thông tin từ nơi khác.
Hầu hết các luồng công việc Trí tuệ nhân tạo mong muốn không có mức độ cụ thể như vậy, và trong những trường hợp như vậy, việc che giấu lợi ích của dữ liệu được bảo vệ bởi quyền sở hữu trí tuệ có thể không yêu cầu nhiều nỗ lực.
Kết luận: Mạng lưới rối ren
Chỉ những người đã sử dụng Trí tuệ nhân tạo tạo ra rộng rãi và trong một khoảng thời gian dài sẽ hiểu trực giác rằng các hệ thống như vậy gặp khó khăn khi kết hợp nhiều khái niệm khi không có ví dụ so sánh trong dữ liệu đào tạo của chúng.
Giới hạn này được gọi là rối ren, nơi các khía cạnh khác nhau của các khái niệm được đào tạo có xu hướng tập hợp lại với các yếu tố liên quan, thay vì phân hủy thành các khối xây dựng Lego tiện dụng có thể được sắp xếp thành bất kỳ cấu hình mới nào mà người dùng có thể mong muốn.
Rối ren là một hố hấp dẫn kiến trúc mà gần như không thể thoát khỏi, ít nhất là đối với các phương pháp dựa trên khuếch tán đặc trưng của tất cả các khuôn khổ Trí tuệ nhân tạo hiện tại. Tuy nhiên, có thể là những phương pháp mới sẽ xuất hiện trong vài năm tới có khả năng phân tích các khái niệm được đào tạo tốt hơn để chúng có thể được dán lại với nhau một cách khéo léo hơn, và cung cấp ít dấu hiệu hơn về nguồn gốc của chúng.
* Tôi không đưa ra bất kỳ cáo buộc nào chống lại EffectMaker, nhưng bình luận ở đây về tính tổng quát của một thực tiễn mới nổi trong nghiên cứu video Trí tuệ nhân tạo.
† Vì những cảnh này, trong những loại phim này, đã tạo ra và tiếp tục tạo ra tiền.
Được xuất bản lần đầu vào Thứ hai, ngày 16 tháng 3 năm 2026
Góc nhìn Anderson
Metody IP-Washing w AI

Jeśli nadchodzi rozliczenie prawne związane z wykorzystaniem własności intelektualnej w szkoleniu AI, istnieją również kilka metod zaciemniania takiego wykorzystania.
Opinia Obecna, gwałtownie postępująca rewolucja w generatywnym AI rozgrywa się w najbardziej niepewnym środowisku prawnym, jakie towarzyszyło jakiejkolwiek przełomowej dewolucji technologicznej od XIX wieku.
Do 3-4 lat temu społeczność badawcza machine learning miała niepisane (często jawne) pozwolenie na wykorzystywanie materiałów chronionych prawem autorskim w trakcie tworzenia nowych systemów; ponieważ systemy te nie były jeszcze udane, pod względem dojrzałości lub opłacalności komercyjnej, wyniki były w każdym sensie akademickie.
W tym okresie nagły sukces nowego pokolenia modeli językowych opartych na dyfuzji (LLM, takich jak ChatGPT i Claude) i modeli językowo-wizualnych (VLM, takich jak Sora) sygnalizował, że te abstrakcyjne i dotąd “nieszkodliwe” gałęzie badań rozwinęły się w kierunku opłacalności komercyjnej i wyrosły ze swojego “wolnego przejazdu”, jeśli chodzi o wykorzystywanie cudzej własności intelektualnej.
Od teraz właściciele praw będą domagać się udziału w owocach systemów AI, które zostały w dużej mierze lub w części wyszkolone na ich chronionych danych, co prowadzi do trwającej lawiny spraw sądowych, które wymagają pewnego wysiłku, by je nawet śledzić.

Tutaj ograniczone tylko do spraw wniesionych w USA, nowe sprawy pojawiają się w frenetycznym tempie w Stanach Zjednoczonych i poza nimi. Źródło
Nakazując “bezpłatny lunch”
Finansowy zaangażowanie obecnie występujące w odniesieniu do infrastruktury AI zostało postawione przez niektóre głosy jako próba umocnienia “podejrzanych o naruszenie praw autorskich” AI tak głęboko w gospodarce społeczeństwa, że staje się nie tylko “zbyt wielkim, by upaść”, ale także “zbyt potężnym, by pozwać” – lub zbyt potężnym, przynajmniej, aby pozwolenia na udane pozwy mogły być pozwolone na zakłócenie rewolucji.
W kierunku tego ogólnego sentymentu, obecny prezydent Stanów Zjednoczonych zobowiązuje się do polityki swojego poglądu, że “Nie możesz oczekiwać, że będziesz miał udany program AI, kiedy każdy artykuł, książka lub cokolwiek innego, co przeczytałeś lub studiowałeś, musisz za to zapłacić”.
Czy tak naprawdę? Niczego podobnego lub porównywalnego nie wystąpiło w zachodniej erze przemysłowej, a to reprezentuje ruch, który silnie ociera się o tradycyjną amerykańską kulturę pozwów i rekompensat; być może najbliższe podobne pozycje to obligatoryjne wygaśnięcie patentów medycznych po 20 latach (co jest często atakowane), i ograniczenie oczekiwań dotyczących prywatności w miejscach publicznych.
Jednak czasy się zmieniają; w braku jakiejkolwiek gwarancji, że obecny trend w kierunku “eminent domain” przeciwko ochronie własności intelektualnej nie zawiedzie, lub nie zostanie odwrócony później, istnieją kilka wtórnych podejść, które stają się standardową praktyką w rozwoju systemów AI i traktowaniu kontrowersyjnych danych szkoleniowych, które je napędzają.
Zestawy danych przez pełnomocnika
Jedno z tych podejść przyjmuje niezwykle podobne podejście do (nie zawsze udanej) obrony stron torrentów, które twierdzą, że nie hostują żadnych kontrowersyjnych materiałów – lub jakichkolwiek materiałów w ogóle.
Ponadto unikając konieczności przechowywania i udostępniania dużych ilości niekompresowalnych danych obrazowych lub wideo, kolekcje tego rodzaju pozwalają na szybkie aktualizacje – takie jak usunięcie materiału na żądanie właścicieli praw autorskich – oraz wersjonowanie.
Właśnie tak, jak torrenty są tylko znakami drogowymi wskazującymi, gdzie można znaleźć chronione prawem autorskim materiał, wiele wpływowych zbiorów danych jest samymi “wskazującymi” listami istniejących danych; jeśli użytkownik końcowy chce użyć tych list jako listy pobierania dla własnego zestawu danych, to leży to na nich, jeśli chodzi o odpowiedzialność kuratorów.
Wśród takich jest zestaw Conceptual 12M od Google Research, który zapewnia podpisów dla obrazów, ale wskazuje tylko lokalizacje w sieci, gdzie te obrazy istnieją (lub istniały w momencie kuracji):

Dwa przykłady z kuracji Conceptual 12M od Google Research. Źródło
Innym prominentnym przykładem, a który teraz ma słuszne roszczenie do czci w historii AI, jest zestaw LAION, który ułatwił powstanie systemu generatywnego Stable Diffusion w 2022 roku – pierwszy taki framework, który oferował potężne, otwarte generatywne obrazy końcowym użytkownikom, właśnie gdy systemy własnościowe wydawały się ustanawiać takie usługi jako wyłącznie komercyjną domenę:

Jeden z wielu wariantów projektu LAION, prezentujący nowoczesne i chronione prawem autorskim dzieła sztuki. Źródło
W wielu przypadkach duże rozmiary plików niektórych z tych “wskazujących” kolekcji wskazują na zawartość obrazu w pliku do pobrania i hostowanym; jednak nieznaczne rozmiary pobierania są często spowodowane dużą ilością zawartości tekstowej, a czasem zawierają wyodrębnione elementy lub cechy – pochodne podsumowania lub węzły innej stosowanej zawartości wyodrębnionej z danych źródłowych podczas procesu szkolenia.
Preferencja wideo
Zestawy wideo prezentują jeszcze silniejszy przypadek dla podejścia “zestaw danych przez pełnomocnika” lub wskazującego, ponieważ duży wolumen danych magazynowych wymaganych do agregacji znaczącej i użytecznej liczby filmów w jedną pobieralną kolekcję jest zabroniony, a “rozproszony” sposób jest pożądany.
Jednak w obu przypadkach – ale szczególnie z wideo – pobieralne adresy URL reprezentują dane, które będą wymagać znaczącej dalszej uwagi przed użyciem w procesach szkoleniowych. Obrazy i filmy będą musiały być przeskalowane lub decyzje o przycinaniu będą musiały zostać podjęte, aby utworzyć próbki, które będą pasować do dostępnego miejsca GPU. Nawet poważnie zmniejszone filmy będą również wymagać cięcia do bardzo krótkich długości, takich jak 3-5 sekund, zwykle.
Godne uwagi zestawy wideo, które używają odniesień do filmów online (zamiast kuracji i bezpośredniego pakowania filmu), obejmują zestaw Kinetics Human Action Video od Google, oraz kolekcję YouTube-8M od giganta wyszukiwarki, która używa segmentacji adnotacji, aby wskazać, jak traktować każdy film po pobraniu – ale który ponownie pozostawia użytkownikowi końcowemu pobranie filmów z podanych adresów URL.
Zamknięte i otwarte
Wreszcie, w tej kategorii, “otwarte” dane VFX mogą być generowane z zamkniętych platform, które następnie publikują i udostępniają wynikowy zestaw danych. Jest rozsądnie zastanowić się, dlaczego tak się dzieje, i rozważyć, czy może to być dlatego, że firma źródłowa chce zdezynfekować model nieprzyjazny IP; lub że “wypłukany” zestaw został zażądany z zewnątrz.
Jednym z takich przypadków “prania generacyjnego” jest, zdaje się, zestaw Omni-VFX, który zawiera wiele punktów danych z zestawu Open-VFX (który sam odnosi się do wielu zamkniętych i półotwartych platform, takich jak Pika i PixVerse).
Być może Omni-VFX nie nawet naprawdę stara się:

W otwartym zestawie Omni-VFX, znajomy twarz. Źródło
Odpowiedzialność przodków
Drugie główne podejście do prania IP jest przez użycie materiałów chronionych prawem autorskim na jednym lub wielu poziomach. Jedną z metod w tej kategorii jest użycie syntetycznych danych, które zostały wyszkolone w pewnym momencie w górę na chronionych prawem autorskim danych. W takich przypadkach, szczególnie gdy syntetyczne dane są w stanie uzyskać autentycznie wyglądające wyniki, chronione prace dostarczają transformacji, które nie mogłyby być rozsądnie zgadnięte lub przybliżone przez ogólne światowe modele lub niespecjalistyczne modele.
To jest niewątpliwie przypadkiem, gdy generatywne systemy wideo są wymagane do generowania “niemożliwych” zdarzeń i zdarzeń, które należałoby ogólnie do kategorii “efektów wizualnych” (VFX).
W rzeczywistości, to, co przywiodło mnie do tego tematu, było najnowsze w serii prac badawczych oferujących możliwość “abstrakcji” różnych typów efektów wizualnych, takich jak produkcja wiązek laserowych z nieprawdopodobnych części ciała, albo poprzez szkolenie na zamówionych lub “otwartych” klipach VFX (zamiast bardziej oczywistego źródła, takiego jak bardzo drogie efekty VFX znalezione w wyjściu z uniwersum filmowego Marvela):
Przykłady ze strony EffectMaker, na której “akcja” w klipie źródłowym (z daleka) jest stosowana do obrazu źródłowego (środek). Źródło
Powyższe przykłady pochodzą ze strony projektu EffectMaker. EffectMaker nie jest nawet pierwszą ofertą tego roku, która stara się wyodrębnić dynamikę VFX z jednego klipu wideo i przenieść ją do nowego klipu, i w rzeczywistości staje się to dyskretnym podzadaniem w badaniach AI VFX*.
Świadomi, że potentaci mediowi, tacy jak Marvel, mają wyższą niż przeciętna szansę na wygranie spraw sądowych dotyczących własności intelektualnej (nawet w wymienionym klimacie “wymuszonej tolerancji”), firmy VFX i startupy obecnie idą na znaczne długości, aby upewnić się, że ich generatywne ramy VFX są wolne od korporacyjnej własności intelektualnej innych firm.
Przede wszystkim jest to Meta, która została zgłoszona na subreddit r/vfx do tego, aby przeprowadziła dobrze wynagradzaną zimową ofensywę rekrutacyjną w 2026 roku, oferując artystom VFX pracę w szkoleniu modeli AI do wytwarzania hollywoodzkich efektów wizualnych. Chociaż wynagrodzenie nie zostało określone w różnych postach, jeden opisał je jako “pieniądze na emeryturę”.
Śledź pieniądze
Jednak trzeba się zastanowić, ile pieniędzy nawet takie jak Meta są gotowe zapłacić za prawdziwą różnorodność i obfitość ad hoc strzałów VFX, biorąc pod uwagę, że średni pojedynczy strzał VFX dla filmu blockbusterowego wynosi około 42 000 USD – i wiele z nich jest znacznie droższych.
Dalej, zdaje się to rozsądne, że zamówione AI generujące VFX modele będą ustępować powszechnemu popytowi, w tym różnym standardowym efektom tropom z najpopularniejszych i najdroższych kategorii filmów.
Poza stanowiskiem, że “pozostałe” specjaliści VFX mogą skończyć się odtwarzając strzały, nad którymi pracowali dla istniejącej kolekcji filmów† – co samo w sobie kontekstualizuje “niestandardową” pracę nad zestawem danych jako imitacyjną – nie ma gwarancji, że te kosztowne nowe próbki będą szkoleniowe “od zera” w nowej architekturze.
W rzeczywistości, jeśli takie rekreacje są przekierowane do modułów dodatkowych, takich jak LoRAs, które polegają na modelu podstawowym, wtedy proces jest tylko tak broniony, jak model podstawowy jest “czysty IP” – i nie wiele z nich jest.
Podobnie, jeśli “nowy” proces używa innych “hybrydowych” technik, takich jak dokształcanie, gdzie wartość efektu wizualnego zależy od modeli, priors lub elementów z starszych kolekcji lub modeli niepotwierdzonej integralności, oryginalność pracy jest zdaje się kosmetyczna i podlega wyzwaniu.
Niewykonalne misje
Domena wyjścia VFX jest szczególnie interesującym studium przypadku w odniesieniu do potencjalnego prania IP w zestawach danych AI, ponieważ efekty wizualne często przedstawiają “niemożliwe” rzeczy, dla których nie będzie dostępnych alternatyw open source.
Na przykład, chociaż burzenie budynku mogło być wyszkolone w modelu generatywnym z różnych domen publicznych lub innych tanich klipów stockowych, jeśli chcesz wyszkolić model do produkcji wiązek laserowych ludzkich, będziesz musiał wyszkolić się na klipach VFX, skradzionych lub zamówionych; takie rzeczy nie zdarzają się nigdzie indziej.
Nawet w przypadku innych typów klęsk żywiołowych, takich jak dramatyczne powodzie, dostępny materiał źródłowy z rzeczywistego świata jest mało prawdopodobne, aby mógł odtworzyć dramatyczne punkty widzenia na katastrofalne zdarzenia, ponieważ (z pewnymi wyjątkami) ludzie zwykle nie transmitują na żywo z miejsc katastrof. Dlatego “fajne widoki” na katastrofę są rzadkie w zestawach danych z rzeczywistego świata, a każdy model AI, który może je generować, najprawdopodobniej uzyskał te informacje gdzie indziej.
Większość pożądanych przepływów zadań AI nie ma takiego samego poziomu szczegółowości, a w takich przypadkach zaciemnienie korzyści z chronionych prawem autorskim danymi może nie wymagać prawie takiego samego wysiłku.
Wnioski: Splątana sieć
Tylko ci, którzy używali generatywnego AI intensywnie i przez dłuższy okres, będą instynktownie rozumieć, że takie systemy mają trudności z łączeniem wielu pojęć, gdy nie ma porównywalnych przykładów w ich danych szkoleniowych.
To ograniczenie jest znane jako splątanie, w którym różne aspekty wyszkolonych pojęć mają tendencję do grupowania się z powiązanymi elementami, zamiast rozkładać się na przydatne, klocki Lego, które mogą być ułożone w dowolną nową konfigurację, jaką użytkownik mógłby sobie życzyć.
Splątanie jest grawitacyjną studnią architektoniczną, której praktycznie nie można uniknąć, przynajmniej dla podejść opartych na dyfuzji, które charakteryzują wszystkie główne obecne ramy genAI. Jednak może się okazać, że nowe podejścia pojawią się w ciągu najbliższych kilku lat, które będą lepsze w dyskretnejcji szkoleniowych pojęć, aby mogły być łączone bardziej zręcznie i oferować mniej wskazówek co do ich pochodzenia.
* Nie stawiam żadnych oskarżeń przeciwko EffectMaker, ale komentuję tu ogólność pojawiającej się praktyki w badaniach AI wideo.
† Ponieważ te strzały, w tych typach filmów, wygenerowały i nadal generują pieniądze.
Po raz pierwszy opublikowane w poniedziałek, 16 marca 2026
Góc nhìn Anderson
วิธีการล้าง IP ใน AI

หากมีการตัดสินตามกฎหมายเกี่ยวกับการใช้ทรัพย์สินทางปัญญาในการฝึกอบรม AI ก็มีวิธีการบิดเบือนการใช้งานดังกล่าวหลายวิธี
ความคิดเห็น การปฏิวัติ AI ที่สร้างสรรค์ใหม่ในปัจจุบันกำลังเกิดขึ้นในสภาพแวดล้อมทางกฎหมายที่ไม่มั่นคงมากที่สุดซึ่งเคยเกิดขึ้นพร้อมกับการพัฒนาทางเทคโนโลยีที่เปลี่ยนแปลงอย่างมาก ตั้งแต่ศตวรรษที่ 19.
จนถึง 3-4 ปีที่แล้ว ชุมชนการวิจัยการเรียนรู้ของเครื่องจักรได้รับการอนุญาตโดยไม่ชัดเจน (มักจะชัดเจน) ให้ใช้วัสดุที่ได้รับการคุ้มครองโดยทรัพย์สินทางปัญญาในการพัฒนาระบบใหม่ๆ; เนื่องจากระบบเหล่านี้ยังไม่ประสบความสำเร็จในแง่ของความเป็นมืออาชีพหรือความสามารถในการทำกำไรได้ ผลลัพธ์เหล่านั้นจึงเป็นเรื่องทางวิชาการโดยทุกประการ
ในช่วงเวลานั้น ความสำเร็จที่ไม่คาดคิดของระบบ Large Language Models รุ่นใหม่ (LLMs เช่น ChatGPT และ Claude) และ Vision-Language Models (VLMs เช่น Sora) ส่งสัญญาณว่าสายการวิจัยที่เป็นนามธรรมและไม่เป็นอันตรายในขณะนั้นได้พัฒนาเป็นความสามารถในการทำกำไรและเติบโตเกิน “การผ่านฟรี” ในเรื่องของการแสวงหาผลประโยชน์จากทรัพย์สินทางปัญญาของผู้อื่น
ตั้งแต่นี้ไป ผู้ถือสิทธิ์จะพยายามที่จะให้ได้รับส่วนแบ่งจากผลตอบแทนของระบบ AI ที่ได้รับการฝึกอบรมจากข้อมูลที่ได้รับการคุ้มครองโดยลิขสิทธิ์หรือการคุ้มครองอื่นๆ ส่งผลให้เกิด คดีทางกฎหมายที่กำลังดำเนินอยู่ ที่ต้องใช้ความพยายาม บางอย่าง เพื่อตาม dõiได้

ที่นี่จำกัดเฉพาะคดีที่นำเสนอในสหรัฐฯ คดีใหม่เกิดขึ้นในอัตราที่รวดเร็วในประเทศสหรัฐฯ และนอกเหนือจากนั้น แหล่งที่มา
การกำหนด ‘อาหารฟรี’
การมุ่งเน้นทางการเงินที่ เกิดขึ้นในปัจจุบัน ในเรื่องของโครงสร้างพื้นฐาน AI ได้ถูกเสนอโดยบางเสียงว่าเป็นความพยายามที่จะฝัง AI ที่มีความเสี่ยงด้านลิขสิทธิ์อย่างลึกซึ้งในการเศรษฐกิจของสังคมจนกลายเป็นไม่เพียงแต่ ‘ใหญ่เกินกว่าจะล้มเหลว’ แต่ยังเป็น ‘มีอำนาจเกินกว่าจะฟ้องร้อง’ – หรืออย่างน้อยก็ไม่สามารถปล่อยให้คดีที่ประสบความสำเร็จขัดขวางการปฏิวัติได้
ในทางเดียวกัน ประธานาธิบดีคนปัจจุบันของสหรัฐฯ กำลัง นำนโยบาย มุมมองของเขา ที่ว่า ‘คุณไม่สามารถคาดหวังให้มีโปรแกรม AI ที่ประสบความสำเร็จเมื่อทุกบทความ หนังสือ หรือสิ่งอื่นใดที่คุณอ่านหรือศึกษาคุณจะต้องจ่ายเงิน’
จริงๆ หรือ? ไม่มีอะไรที่คล้ายกันหรือเทียบเท่าที่เคยเกิดขึ้นในยุคอุตสาหกรรมตะวันตก และสิ่งนี้แสดงถึงการเคลื่อนไหวที่ขัดแย้งกับวัฒนธรรมการฟ้องร้องและชดเชยแบบดั้งเดิมของสหรัฐฯ; อาจเป็นตำแหน่งที่ใกล้เคียงที่สุดคือการหมดอายุของลิขสิทธิ์ยาที่มีผลต่อ 20 ปี (ซึ่ง ถูกโจมตี บ่อยครั้ง) และ ข้อจำกัด ในเรื่องความคาดหวังของความเป็นส่วนตัวในสถานที่สาธารณะ
อย่างไรก็ตาม เวลากำลังเปลี่ยนแปลงไป; ในการไม่มีการรับประกันว่าแนวโน้มปัจจุบันในการ ‘ยึดครอง’ ต่อการคุ้มครองทรัพย์สินทางปัญญา不会ล้มเหลวหรือถูกย้อนกลับในภายหลัง มีแนวทางรองหลายอย่างที่กำลังกลายเป็นมาตรฐานในการพัฒนา AI และการรักษาข้อมูลฝึกอบรมที่ถูกโต้แย้งอย่างมาก
ชุดข้อมูลโดยการแทนเจ้า
วิธีการหนึ่งในนี้ใช้แนวทางที่คล้ายกับการป้องกันของเว็บไซต์รายการทอร์เรนต์ที่บอกว่าพวกเขาไม่ได้โฮสต์ข้อมูลที่ถูกโต้แย้ง – หรือข้อมูลใดๆ เลย
นอกจากการหลีกเลี่ยงความจำเป็นในการจัดเก็บและให้บริการข้อมูลภาพหรือวิดีโอที่มีขนาดใหญ่แล้ว ชุดข้อมูลเหล่านี้ยังช่วยให้สามารถอัปเดตได้อย่างรวดเร็ว – เช่น การลบข้อมูลตามคำขอของผู้ถือสิทธิ์ – และการสร้างเวอร์ชัน
เช่นเดียวกับทอร์เรนต์ที่เป็นเพียงป้ายบอกทางไปยังที่ที่สามารถหาได้ข้อมูลที่มีลิขสิทธิ์ ชุดข้อมูลที่มีอิทธิพลสูงหลายชุดเป็นเพียง ‘รายการชี้’ ของข้อมูลที่มีอยู่; หากผู้ใช้สุดท้ายต้องการใช้รายการเหล่านี้เป็นรายการดาวน์โหลดสำหรับชุดข้อมูลของตนเอง นั่นก็เป็นเรื่องของความรับผิดชอบของผู้ดูแลแล้ว
ในหมู่นี้มี Conceptual 12M ของ Google Research ซึ่งให้คำบรรยายสำหรับภาพ แต่ชี้เฉพาะ ที่ตั้งบนเว็บ ที่ภาพเหล่านั้นมีอยู่ (หรือมีอยู่ในขณะทำการคัดเลือก):

ตัวอย่างสองรายการจาก Conceptual 12M ของ Google Research แหล่งที่มา
อีกตัวอย่างที่มีชื่อเสียงหนึ่งคือ LAION dataset ที่ทำให้เกิดการมาถึงของระบบ Stable Diffusion ใน ปี 2022 – ระบบแรกที่ให้บริการภาพสร้างสรรค์แบบเปิดสำหรับผู้ใช้สุดท้าย ในขณะที่ระบบที่มีลิขสิทธิ์ดูเหมือนจะสร้างบริการเหล่านี้ให้เป็นโดเมนเชิงพาณิชย์โดยสมบูรณ์:

หนึ่งในหลายรูปแบบของโครงการ LAION ซึ่งแสดงผลงานศิลปะสมัยใหม่ที่มีลิขสิทธิ์ แหล่งที่มา
ในหลายกรณี ขนาดไฟล์ที่ใหญ่ของชุด ‘ชี้’ เหล่านี้บ่งบอกถึงการรวมภาพเข้าด้วยกันในไฟล์ที่สามารถดาวน์โหลดและโฮสต์ได้; อย่างไรก็ตาม ขนาดดาวน์โหลดที่ไม่สำคัญมักจะเกิดจากปริมาณเนื้อหาที่มีขนาดใหญ่ และบางครั้งการรวมเอาเอ็มเบ็ดหรือ คุณลักษณะ – สรุปหรือโหนดของเนื้อหาที่ใช้ได้ซึ่งถูกดึงออกมาจากข้อมูลต้นฉบับระหว่างกระบวนการฝึกอบรม
พรีเมียมวิดีโอ
ชุดข้อมูลวิดีโอนำเสนอกรณีที่เข้มแข็งยิ่งขึ้นสำหรับแนวทาง ‘ชุดข้อมูลโดยการแทน’ หรือการชี้ เนื่องจากปริมาณการเก็บข้อมูลที่ต้องการในการรวบรวมวิดีโอที่มีจำนวนมากในคอลเลกชันเดียวนั้นเป็นเรื่องที่ยากมาก และวิธีการ ‘กระจาย’ จึงน่าสนใจ
อย่างไรก็ตาม ทั้งสองกรณี – แต่เฉพาะเจาะจงกับวิดีโอ – URL ที่สามารถดาวน์โหลดได้แสดงถึงข้อมูลที่จะต้องได้รับการดูแลเพิ่มเติมก่อนที่จะใช้ในกระบวนการฝึกอบรม ทั้งภาพและวิดีโอต้องถูกปรับขนาดหรือตัดสินใจ การตัด เพื่อสร้างตัวอย่างที่จะเข้ากับ พื้นที่ GPU ที่มีอยู่ วิดีโอที่ลดขนาดลงอย่างจริงจังจะต้องถูกตัดให้สั้นลงมาก เช่น 3-5 วินาที โดยทั่วไป
ชุดข้อมูลวิดีโอที่มีชื่อเสียงที่ใช้การอ้างอิงถึงวิดีโอบนเว็บ (แทนที่จะรวบรวมและจัดแพ็คเกจวิดีโอโดยตรง) รวมถึง Kinetics Human Action Video Dataset ของ Google และคอลเลกชัน YouTube-8M ของผู้ให้บริการค้นหาที่ใช้ การทำเครื่องหมายส่วน เพื่อแสดงวิธีการรักษาวิดีโอแต่ละครั้งหลังจากดาวน์โหลด – แต่ซึ่งปล่อยให้ผู้ใช้สุดท้ายได้รับวิดีโอจาก URL ที่ให้มา
ปิดและเปิด
สุดท้าย ในหมวดหมู่นี้ ‘เปิด’ ข้อมูล VFX อาจถูกสร้างขึ้นโดยใช้แพลตฟอร์มที่ปิดซึ่งเผยแพร่และทำให้ชุดข้อมูลนั้นสามารถเข้าถึงได้ มีเหตุผลที่จะสงสัยว่าทำไมสิ่งนี้จึงเกิดขึ้น และพิจารณาว่าอาจเป็นเพราะบริษัทที่สร้างขึ้นต้องการ ‘ล้าง’ โมเดลที่ไม่เป็นมิตรต่อ IP สำหรับการใช้งานของตนเอง หรือว่า ‘ชุดข้อมูลที่ล้าง’ ถูกขอจากภายนอก
กรณีหนึ่งของ ‘การล้างรุ่น’ คือ Omni-VFX dataset ซึ่งรวมจุดข้อมูลหลายจุดจาก Open-VFX dataset (ซึ่งอ้างอิงแพลตฟอร์มที่ปิดและกึ่งปิดหลายแห่ง เช่น Pika และ PixVerse) ให้
เพื่อความจริงจัง Omni-VFX ไม่ได้พยายามซ่อนเร้น:

ใน Omni-VFX ชุดข้อมูลที่เปิดกว้าง มีหน้าตาหนึ่งที่คุ้นเคย แหล่งที่มา
ความรับผิดชอบต่อบรรพบุรุษ
วิธีการหลักในการ ‘ล้าง IP’ คือการใช้ข้อมูลที่มีลิขสิทธิ์ที่หลายขั้นตอนหรือหลายขั้นตอน หนึ่งในวิธีการในหมวดหมู่นี้คือการใช้ ข้อมูลสังเคราะห์ ที่ได้รับการฝึกอบรมใน某จุดข้างหน้าจากข้อมูลที่มีลิขสิทธิ์ ในกรณีเหล่านี้ โดยเฉพาะอย่างยิ่งเมื่อข้อมูลสังเคราะห์สามารถให้ผลลัพธ์ที่ดูเหมือนจริงได้ ข้อมูลที่มีลิขสิทธิ์จะให้การเปลี่ยนแปลงที่ไม่สามารถเดาหรือประมาณได้ด้วยโมเดลทั่วไปหรือโมเดลที่ไม่เชี่ยวชาญ
นี่เป็นกรณีที่ชัดเจนโดยเฉพาะอย่างยิ่งเมื่อระบบวิดีโอที่สร้างสรรค์ต้องการสร้าง ‘เหตุการณ์ที่เป็นไปไม่ได้’ และเหตุการณ์ที่จะอยู่ในหมวด ‘เอฟเฟกต์ภาพ’ (VFX)
ในความเป็นจริง สิ่งที่นำหัวข้อนี้มาให้พิจารณาคือการวิจัยล่าสุดในซีรีส์ที่ให้ความสามารถในการ ‘สรุป’ ประเภทต่างๆ ของเอฟเฟกต์ภาพ เช่น การสร้างเลเซอร์จากส่วนต่างๆ ของร่างกายที่ไม่น่าจะเป็นไปได้ โดยการฝึกอบรมจากคลิป VFX ที่สั่งทำหรือ ‘เปิดกว้าง’ (แทนที่จะเป็นแหล่งที่มาที่ชัดเจน เช่น คลิป VFX ที่มีราคาแพงจากจักรวาลภาพยนตร์ Marvel):
ตัวอย่างจากเว็บไซต์ EffectMaker ซึ่ง ‘การกระทำ’ ในคลิปต้นฉบับ (ทางซ้าย) ถูกนำไปใช้กับภาพต้นฉบับ (ตรงกลาง) แหล่งที่มา
ตัวอย่างเหล่านี้มาจาก หน้าโครงการ ของ EffectMaker EffectMaker ไม่ใช่การนำเสนอครั้งแรกในปีนี้ที่พยายามดึงเอฟเฟกต์ VFX ออกจากคลิปวิดีโอหนึ่งและย้ายไปคลิปอื่น และในความเป็นจริงสิ่งนี้กำลังจะกลายเป็นงานย่อยในงานวิจัย AI VFX*
รู้ว่าบริษัทสื่อขนาดใหญ่ เช่น Marvel มีโอกาสชนะคดีทางกฎหมายเกี่ยวกับทรัพย์สินทางปัญญา (แม้ในสภาพแวดล้อม ‘การอดทนบังคับ’ เช่นนี้) บริษัทเอฟเฟกต์ภาพและสตาร์ทอัพกำลังพยายามอย่างมากเพื่อให้แน่ใจว่าเฟรมเวิร์กเอฟเฟกต์ภาพที่สร้างสรรค์ของตนเองไม่มี IP ของบริษัทอื่น
สิ่งสำคัญที่สุดในหมู่นี้คือ Meta ซึ่งได้รับการรายงาน ใน r/vfx subreddit ที่ได้ทำการรับสมัครในช่วงฤดูหนาวที่มีเงินตอบแทนสูงในปี 2026 โดยเสนอให้นักศิลปะ VFX ทำงานฝึกอบรมโมเดล AI เพื่อสร้างภาพเอฟเฟกต์ภาพระดับฮอลลีวูด แม้ว่าเงินตอบแทนที่ไม่ได้ระบุไว้ในโพสต์หลายแห่ง แต่หนึ่งใน อธิบายว่าเป็น ‘เงินเกษียณ’
ติดตามเงิน
อย่างไรก็ตาม ต้องสงสัยว่าแม้แต่บริษัทอย่าง Meta ก็ยินดีจ่ายเงินเท่าใดสำหรับความหลากหลายและความอุดมสมบูรณ์ของภาพเอฟเฟกต์ VFX ที่สั่งทำ โดยเฉพาะอย่างยิ่งเมื่อราคาเฉลี่ยของภาพเอฟเฟกต์ VFX เพียงภาพเดียวสำหรับภาพยนตร์บล็อกบัสเตอร์อยู่ที่ 42,000 ดอลลาร์สหรัฐฯ – และหลายภาพมีราคาแพงกว่านั้นมาก
นอกจากนี้ ยังสมเหตุสมผลที่จะคิดว่าโมเดล AI ที่สร้าง VFX ที่สั่งทำจะยอมจำนนต่อความต้องการที่ได้รับความนิยม รวมถึงเอฟเฟกต์มาตรฐานต่างๆ จากประเภทภาพยนตร์ที่มีราคาแพงและได้รับความนิยมมากที่สุด
นอกจากมุมมองที่ว่า ‘นักศิลปะ VFX ที่เหลือ’ อาจสร้างภาพที่พวกเขาทำงานในแคตตาล็อกภาพยนตร์ที่มีอยู่แล้ว – ซึ่งทำให้การทำงาน ‘สั่งทำ’ มีลักษณะเหมือนกัน – ก็ไม่มีการรับประกันว่า
Góc nhìn Anderson
IP-Washing Methoden in AI

Als er een juridische afrekening komt over het gebruik van intellectueel eigendom bij het trainen van AI, zijn er ook verschillende methoden om een dergelijk gebruik te verhullen.
Opinie De huidige, snel vooruitgang boekende revolutie in generatieve AI ontwikkelt zich in de meest juridisch precaire omgeving die ooit heeft gepaard gegaan met een transformatieve technologische ontwikkeling sinds de negentiende eeuw.
Tot 3-4 jaar geleden genoot de machine learning-onderzoeksgemeenschap een stilzwijgende (vaak expliciete) opdracht om IP-beschermd materiaal te exploiteren bij het ontwikkelen van nieuwe systemen; aangezien deze systemen nog niet succesvol waren, in termen van volwassenheid of commerciële levensvatbaarheid, waren de resultaten in alle opzichten academisch.
In die periode gaf het plotselinge succes van een nieuwe generatie diffusiegebaseerde Large Language Models (LLM’s, zoals ChatGPT en Claude) en Vision-Language Models (VLM’s, zoals Sora) aan dat deze abstracte en tot dan toe ‘onschuldige’ onderzoekslijnen waren uitgegroeid tot commerciële levensvatbaarheid en hun ‘vrije pas’ hadden overtroffen, voor zover het de exploitatie van andermans intellectueel eigendom betreft.
Vanaf nu zouden rechthebbenden een aandeel zoeken in de vruchten van AI-systemen die grotendeels of gedeeltelijk zijn getraind op hun gecopyrighte of anderszins beschermd materiaal, wat leidt tot een voortdurende lawine van rechtszaken die enige inspanning vereisen om zelfs maar bij te houden.

Hier beperkt tot alleen zaken die in de VS zijn ingesteld, komen nieuwe zaken met een frenetisch tempo naar voren in de Verenigde Staten en daarbuiten. Bron
Een ‘Gratis Lunch’ Verplichten
De financiële inzet die momenteel plaatsvindt met betrekking tot AI-diensteninfrastructuur is door sommige stemmen gepostuleerd als een inspanning om ‘copyright-gevaarlijke’ AI zo diep in de economie van de samenleving te verankeren dat het niet alleen ‘te groot om te falen’ wordt, maar ook ‘te machtig om aan te klagen’ – of ten minste te machtig dat succesvolle rechtszaken niet zouden mogen worden toegestaan om de revolutie omver te werpen.
In deze algemene richting verplicht de huidige president van de Verenigde Staten in zijn beleid zijn visie dat ‘Je kunt niet verwachten een succesvol AI-programma te hebben wanneer elk artikel, boek of alles wat je hebt gelezen of bestudeerd, je moet betalen’.
Echt waar? Niets wat hierop lijkt of vergelijkbaar is, is ooit voorgekomen in de westerse industriële era, en dit vertegenwoordigt een beweging die ernstig wrijft tegen de traditionele Amerikaanse cultuur van rechtszaken en schadevergoeding; misschien zijn de dichtstbijzijnde vergelijkbare posities de verplichte verloop van medicinale octrooien na 20 jaar (wat op zich frequent onder aanval ligt), en de beperking op verwachtingen van privacy in openbare plaatsen.
Echter, de tijden veranderen; in afwezigheid van enige garantie dat de huidige trend naar ’eminent domain’ tegen IP-bescherming niet zal falen, of anderszins later wordt omgekeerd, zijn er verschillende secundaire benaderingen die standaardpraktijk worden in de ontwikkeling van AI-systemen en de behandeling van de veelomstreden trainingsgegevens die het aandrijven.
Datasets-by-Proxy
Een van deze benaderingen neemt een opmerkelijk vergelijkbare aanpak als de (niet altijd succesvolle) verdediging door torrent-lijstsites dat ze geen enkel omstreden materiaal hosten – of enig materiaal überhaupt.
Naast het vermijden van de noodzaak om grote hoeveelheden minimaal compressibele beeld- of videogegevens op te slaan en te bedienen, laten verzamelingen van deze soort het toe om snel bij te werken – zoals het verwijderen van materiaal op verzoek van de rechthebbenden – en versies te maken.
Net zoals torrents alleen wegwijzers zijn naar waar IP-beschermd materiaal kan worden gevonden, zijn een aantal zeer invloedrijke datasets in zichzelf alleen ‘pointer’-stijl lijsten van bestaande gegevens; als de eindgebruiker deze lijsten wil gebruiken als downloadlijst voor hun eigen dataset, is dat voor hun rekening, voor zover de aansprakelijkheid van de curatoren betreft.
Onder deze zijn Google Research’s Conceptual 12M-dataset, die onderschriften voor afbeeldingen biedt, maar alleen verwijst naar locaties op het web waar deze afbeeldingen bestaan (of bestonden ten tijde van de curatie):

Twee voorbeelden uit Google Research’s Conceptual 12M-curatie. Bron
Een ander prominent voorbeeld, en een die nu een geldige aanspraak heeft op verering in de geschiedenis van AI, is de LAION-dataset die de komst van het Stable Diffusion-generatieve systeem in 2022 mogelijk maakte – het eerste dergelijke kader dat krachtige open source generatieve afbeeldingen aan eindgebruikers bood, net zoals propriëtaire systemen leken te vestigen dat dergelijke diensten een puur afgebakend, commercieel domein zouden zijn:

Een van de vele varianten van het LAION-project, met moderne en gecopyrighte werken. Bron
In veel gevallen geven de hoge bestandsgroottes van deze ‘pointer’-verzamelingen aan dat afbeeldingsinhoud is opgenomen in een downloadable en gehoste bestand; echter zijn de niet-triviale downloadgroottes vaak te wijten aan het hoge volume aan tekstinhoud en soms de opname van geëxtraheerde embeddings of functies – afgeleide samenvattingen of knooppunten van anderszins toepasselijke inhoud die tijdens het trainingsproces uit de brondata zijn geëxtraheerd.
De Video Premium
Videodatasets vormen een nog sterkere zaak voor de ‘dataset-by-proxy’- of pointerbenadering, aangezien de grote hoeveelheid opslaggegevens die nodig is om een zinvolle en nuttige hoeveelheid video’s in een enkele downloadable collectie te aggregeren, prohibitief is, en een ‘gedistribueerde’ methode wenselijk is.
Echter, in beide gevallen – maar vooral met video – vertegenwoordigen de downloadable bron-URL’s gegevens die aanzienlijke verdere aandacht zullen behoeven voordat ze in trainingsprocessen kunnen worden gebruikt. Zowel afbeeldingen als video’s zullen moeten worden herdimensioneerd, of anderszins beslissingen over bijsnijden moeten worden genomen, om monsters te creëren die in beschikbare GPU-ruimte passen. Zelfs serieus verlaagde video’s zullen ook moeten worden geknipt tot zeer korte lengtes, zoals 3-5 seconden, typisch.
Opmerkelijke videodatasets die verwijzingen naar online video’s gebruiken (in plaats van de curatie en directe verpakking van video) zijn onder andere Google’s Kinetics Human Action Video Dataset, en de zoekgigant’s YouTube-8M-collectie, die segmentannotatie gebruikt om aan te geven hoe elke video moet worden behandeld zodra deze is gedownload – maar die opnieuw de eindgebruiker laat om de video’s van de verstrekte URL’s te verkrijgen.
Sluiten en Openen
Tenslotte, in deze categorie, kan ‘open’ VFX-gegevens worden gegenereerd met gesloten platforms die vervolgens de resulterende dataset publiceren en beschikbaar stellen. Het is redelijk om te vragen waarom dit gebeurt, en om te overwegen of dit misschien gebeurt omdat het oorspronkelijke bedrijf de bovenstroom van een IP-vijandige model wil zuiveren voor hun eigen gebruik; of dat een ‘gewassen’ set van buitenaf is aangevraagd.
Een dergelijk geval van ‘generatie-wassen’ is, naar alle waarschijnlijkheid, de Omni-VFX-dataset, die veel gegevenspunten bevat uit de Open-VFX-dataset (die op zichzelf verwijst naar veel gesloten en semi-gesloten platforms, zoals Pika en PixVerse).
Om eerlijk te zijn, doet Omni-VFX niet eens alsof het probeert:

In de open source Omni-VFX-dataset, een vertrouwd gezicht. Bron
Afstammingsaansprakelijkheid
De tweede belangrijke benadering van IP-wassen is door het gebruik van gecopyrighte materiaal op één of meer verwijderingen. Een van de methoden in deze categorie is het gebruik van synthetische gegevens die op een bepaald moment stroomopwaarts zijn getraind op gecopyrighte gegevens. In dergelijke gevallen, vooral waar synthetische gegevens authentiek uitziende resultaten kunnen behalen, levert het gecopyrighte werk transformaties die redelijkerwijs niet kunnen worden geraden of benaderd door algemene wereldmodellen of niet-gespecialiseerde modellen.
Dit is vooral het geval waar generatieve videosystemen vereist zijn om ‘onmogelijke’ gebeurtenissen te genereren, en gebeurtenissen die over het algemeen in de categorie ‘visuele effecten’ (VFX) vallen.
In feite, wat deze kwestie ter sprake bracht, was de laatste in een reeks onderzoeksartikelen die de mogelijkheid bieden om ‘abstracte’ diverse soorten visuele effecten te produceren, zoals het produceren van laserstralen uit onwaarschijnlijke delen van het lichaam, door getraind te zijn op aangepaste of ‘open source’ VFX-clips (in plaats van de meer voor de hand liggende bron, zoals de zeer dure VFX-shots in de output van het Marvel-cinematic universum):
Voorbeelden van de EffectMaker-website, waarin de ‘actie’ in de bronclip (ver linksonder) wordt toegepast op een bronafbeelding (midden). Bron
De bovenstaande voorbeelden komen van de projectpagina voor het EffectMaker-project. EffectMaker is niet eens de eerste aanbieding dit jaar die ernaar streeft om VFX-dynamica uit een videoclip te extraheren en over te zetten naar een nieuwe clip, en in feite wordt dit een discrete subtaak in AI VFX-onderzoek*.
Bewust van het feit dat mediabedrijven zoals Marvel een hogere dan gemiddelde kans hebben om rechtszaken over IP te winnen (zelfs in de eerdergenoemde klimaat van ‘afgedwongen tolerantie’), gaan visuele effectenbedrijven en startups momenteel tot grote lengte om ervoor te zorgen dat hun generatieve VFX-kaders vrij zijn van andermans corporate IP.
Vooral Meta, dat op de r/vfx-subreddit is gemeld een goedbetaalde wervingsdrift in de winter van 2026 te hebben gehad, waarbij VFX-kunstenaars werden aangeboden om AI-modellen te trainen om Hollywood-niveau VFX-shots te produceren. Hoewel het salaris niet werd gespecificeerd in verschillende posts, beschreef een het als ‘pensioengeld’.
Volg het Geld
Echter, men moet zich afvragen hoeveel geldsbedragen zelfs de grote spelers als Meta bereid zijn te betalen voor een echte diversiteit en overvloed aan ad hoc VFX-shots, gezien het feit dat de gemiddelde enkele VFX-shot voor een blockbuster-film ongeveer $42.000 USD kost – en veel komen er veel hoger uit.
Verder is het redelijk om aan te nemen dat op maat gemaakte VFX-genererende AI-modellen zullen toegeven aan populaire vraag, inclusief diverse standaard-effecten uit de meest populaire en dure categorieën van films.
Los van het standpunt dat ‘overblijvende’ VFX-professionals uiteindelijk shots kunnen recreëren die ze voor een bestaande filmcatalogus hebben gemaakt† – wat op zich de ‘aangepaste’ datasetwerk contextualiseert als imitatie – is er geen garantie dat deze dure nieuwe monsters uiteindelijk ‘van scratch’ getraind zullen worden in een geheel nieuw architectuur.
In feite, als dergelijke recreaties worden omgeleid naar adjunctmodules zoals LoRAs, die afhankelijk zijn van een basismodel, dan is het proces alleen zo verdedigbaar als het basismodel ‘IP-schoon’ is – en niet veel zijn.
Soortgelijk, als het ‘nieuwe’ proces andere ‘hybride’ technieken gebruikt zoals fine-tuning, waar de waarde van het visuele effect afhankelijk is van modellen, priors, of embeddings uit oudere collecties of modellen van onbewezen integriteit, is de originaliteit van het werk cosmetisch en onderhevig aan uitdaging.
Onmogelijke Missies
Het domein van VFX-uitvoer is een bijzonder interessante casestudy met betrekking tot potentieel IP-wassen in AI-datasets, aangezien visuele effecten shots vaak ‘onmogelijke’ dingen tonen waarvoor geen open source-alternatieven beschikbaar zijn.
Bijvoorbeeld, als je een model wilt trainen om menselijke laserstralen te produceren, zal je moeten trainen op VFX-clips, gestolen of in opdracht gegeven; dergelijke dingen gebeuren nergens anders.
Zelfs in het geval van andere soorten natuurrampen, zoals dramatische overstromingen, is beschikbare bronmateriaal uit de echte wereld onwaarschijnlijk in staat om dramatische POV’s op rampzalige gebeurtenissen te reproduceren, omdat (met enkele uitzonderingen) mensen niet gewoonlijk live-streamen van catastrofale locaties. Daarom zijn ‘cool views’ op rampen zeldzaam in real-world datasets, en elk AI-model dat deze kan genereren, kreeg de informatie waarschijnlijk van elders.
De meeste gewenste AI-taakstromen hebben niet dit niveau van specificiteit, en in dergelijke gevallen kan de verhulling van de voordelen van IP-beschermd materiaal niet zo veel inspanning vereisen.
Conclusie: Verstrengeld Web
Alleen degenen die uitgebreid en over een langere periode generatieve AI hebben gebruikt, zullen instinctief begrijpen dat dergelijke systemen worstelen om meerdere concepten te combineren wanneer geen vergelijkbare voorbeelden in hun trainingsgegevens bestaan.
Deze beperking is bekend als entanglement, waarin de verschillende facetten van getrainde concepten de neiging hebben om samen te klitten met verwante elementen, in plaats van te decomponeren in handige, Lego-achtige bouwstenen die in elke nieuwe configuratie kunnen worden gerangschikt die de gebruiker zou kunnen wensen.
Entanglement is een architectonische zwaartekracht die vrijwel onmogelijk te ontvluchten is, ten minste voor de diffusiegebaseerde benaderingen die alle belangrijke huidige genAI-kaders karakteriseren. Echter, het kan zijn dat nieuwe benaderingen in de komende jaren naar voren komen die beter zijn in het discretiseren van getrainde concepten zodat ze meer behendig kunnen worden samengevoegd, en minder indicaties geven over hun herkomst.
* Ik maak geen beschuldigingen tegen EffectMaker, maar commentaar hier op de generaliteit van een opkomende praktijk in AI-video-onderzoek.
† Omdat deze shots, in dit soort films, geld hebben gegenereerd en blijven genereren.
Eerst gepubliceerd op maandag 16 maart 2026
Góc nhìn Anderson
Metode de spălare IP în IA

Dacă va exista o reglementare legală legată de utilizarea proprietății intelectuale în antrenarea IA, există și mai multe metode de a ascunde astfel de utilizări.
Opinie Revolutia actuală, în plină expansiune, a inteligenței artificiale generative se desfășoară în cel mai precar mediu legal care a însoțit orice dezvoltare tehnologică transformațională de la sfârșitul secolului al XIX-lea.
Până acum 3-4 ani, comunitatea de cercetare a învățării automate a avut un mandat tacit (adesea explicit) de a exploata materialul protejat prin drepturi de autor în cursul dezvoltării de noi sisteme; deoarece aceste sisteme nu erau încă mature sau viabile comercial, rezultatele au fost, în orice sens, academice.
În acea perioadă, succesul brusc al unei noi generații de modele de limbaj mari bazate pe difuzie (LLM, cum ar fi ChatGPT și Claude) și modele de viziune-lingvistică (VLM, cum ar fi Sora) a semnalat că aceste fire abstracte și până atunci “inofensive” de cercetare s-au transformat într-o viabilitate comercială și au depășit “trecerea liberă”, în ceea ce privește exploatarea proprietății intelectuale a altor persoane.
De acum înainte, deținătorii de drepturi vor cere o cotă parte din roadele sistemelor IA antrenate în mare măsură sau în parte pe datele lor protejate prin drepturi de autor, ceea ce va duce la o avalanșă continuă de cazuri legale care necesită un anumit efort pentru a le urmări.

Aici, limitat doar la cazurile intentate în SUA, noile cazuri apar la un ritm frenetic în Statele Unite și în afara lor. Sursă
Impunerea unui “prânz gratuit”
Angajamentul financiar care are loc în prezent în ceea ce privește infrastructura care deservește IA a fost considerat de unii ca o încercare de a consolida IA “periculoasă din punct de vedere al drepturilor de autor” atât de profund în economia societății, încât aceasta devine nu numai “prea mare pentru a eșua”, ci și “prea puternică pentru a fi dată în judecată” – sau, cel puțin, atât de puternică încât procesele cu succes nu ar putea fi lăsate să răstoarne revoluția.
Spre acest sentiment general, președintele actual al Statelor Unite își transpune în politică punctul de vedere că “Nu puteți fi așteptați să aveți un program de inteligență artificială de succes atunci când fiecare articol, carte sau orice altceva pe care l-ați citit sau studiat trebuie să plătiți pentru el”.
Cu adevărat? Nimic similar sau comparabil nu s-a întâmplat în era industrială occidentală, și aceasta reprezintă o mișcare care se opune puternic culturii tradiționale americane de litigii și despăgubiri; poate că pozițiile cele mai asemănătoare sunt expirarea obligatorie a brevetelor de medicamente după 20 de ani (care, în sine, este adesea atacată), și limitarea așteptărilor de confidențialitate în locuri publice.
Cu toate acestea, timpurile se schimbă; în absența oricărei garanții că tendința actuală spre “drept de expropriere” împotriva protecției drepturilor de autor nu va eșua sau nu va fi inversată mai târziu, există mai multe abordări secundare care devin practică standard în dezvoltarea sistemelor IA și în tratarea datelor de antrenare atât de controversate care le alimentează.
Seturi de date prin proxy
Una dintre aceste abordări adoptă o metodă remarcabil de asemănătoare cu apărarea (nu întotdeauna de succes) a site-urilor de listare a torrent-urilor, care afirmă că nu găzduiesc material contestat – sau orice material deloc.
Pe lângă evitarea necesității de a stoca și furniza cantități mari de date de imagine sau video minim comprimabile, colecțiile de acest tip permit actualizări rapide – cum ar fi înlăturarea materialului la cererea deținătorilor de drepturi de autor – și versionare.
La fel cum torrent-urile sunt doar indicatori către locurile unde pot fi găsite materiale protejate prin drepturi de autor, o serie de seturi de date foarte influente sunt, în sine, doar liste “pointer” de date existente; dacă utilizatorul final dorește să utilizeze aceste liste ca listă de descărcare pentru propriul set de date, aceasta este problema lui, în ceea ce privește răspunderea curatorilor.
Printre acestea se numără setul de date Conceptual 12M al Google Research, care oferă subtitrări pentru imagini, dar indică doar locuri pe web unde există aceste imagini (sau existau la momentul curățirii):

Două exemple din curarea Conceptual 12M a Google Research. Sursă
Un alt exemplu proeminent, și unul care are acum o revendicare valabilă la reverență în istoria IA, este setul de date LAION care a facilitat apariția sistemului generativ Stable Diffusion în 2022 – primul astfel de cadru care a oferit imagini generative deschise puternice utilizatorilor finali, exact când sistemele proprietare păreau să stabilească astfel de servicii ca un domeniu comercial închis:

Una dintre variantele multiple ale proiectului LAION, prezentând opere de artă moderne și protejate prin drepturi de autor. Sursă
În multe cazuri, dimensiunile mari ale fișierelor unor astfel de “colecții pointer” indică includerea conținutului de imagine într-un fișier descărcabil și găzduit; cu toate acestea, dimensiunile de descărcare nelimitate sunt adesea cauzate de volumul mare de conținut text, și uneori de includerea extragerii embeddings sau caracteristici – rezumate sau noduri derivate din datele sursă în timpul procesului de antrenare.
Primul video
Seturile de date video prezintă un caz și mai puternic pentru abordarea “set de date prin proxy” sau pointer, deoarece volumul mare de date de stocare necesare pentru a agrega un număr semnificativ și util de videoclipuri într-o singură colecție descărcabilă este prohibitiv, și o metodă “distribuită” este de dorit.
Cu toate acestea, în ambele cazuri – dar mai ales cu video – URL-urile descărcabile reprezintă date care vor necesita o atenție semnificativă suplimentară înainte de a fi utilizate în procesele de antrenare. Atât imaginile, cât și videoclipurile vor necesita redimensionare, sau vor trebui luate decizii de decupaj, pentru a crea mostre care vor intra în spațiul disponibil GPU. Chiar și videoclipurile puternic reduse ca dimensiune vor necesita, de asemenea, tăierea la lungimi foarte scurte, de obicei de 3-5 secunde.
Seturile de date video notabile care utilizează referințe la videoclipuri online (în loc de curățirea și ambalarea directă a videoclipurilor) includ Kinetics Human Action Video Dataset al Google și colecția YouTube-8M a gigantului căutări, care utilizează annotarea segmentului pentru a indica modul de tratare a fiecărui videoclip odată descărcat – dar care, din nou, lasă utilizatorul final să obțină videoclipurile de la URL-urile furnizate.
Închis și deschis
În cele din urmă, în această categorie, datele “deschise” VFX pot fi generate cu platforme închise care publică și pun la dispoziție setul de date rezultat. Este rezonabil să ne întrebăm de ce se întâmplă acest lucru și să considerăm dacă se poate datora faptului că compania care a inițiat-o dorește să “curățe” un model cu o “istorie” neplăcută din punct de vedere al drepturilor de autor; sau că un set “spălat” a fost solicitat din exterior.
Un astfel de caz de “spălare generativă” este, probabil, setul de date Omni-VFX, care include multe puncte de date din setul de date Open-VFX (care, la rândul său, face referire la multe platforme închise și semi-închise, cum ar fi Pika și PixVerse).
Să fim onești, Omni-VFX nu se străduiește deloc:

În setul de date deschis Omni-VFX, o față familiară. Sursă
Răspundere ancestrală
A doua abordare majoră pentru “spălarea” drepturilor de autor este prin utilizarea materialului protejat prin drepturi de autor la una sau mai multe etape. Una dintre metodele din această categorie este utilizarea datelor sintetice care au fost antrenate, la un moment dat în amonte, pe date protejate prin drepturi de autor. În astfel de cazuri, mai ales atunci când datele sintetice pot obține rezultate care par autentice, lucrările protejate prin drepturi de autor oferă transformări care nu ar putea fi rezonabil ghicite sau aproximate de modelele generale ale lumii sau de modelele nespecializate.
Acesta este, în mod evident, cazul în care sistemele generative de videoclipuri necesită generarea de “evenimente imposibile” și evenimente care ar cădea, în general, în categoria “efecte vizuale” (VFX).
De fapt, ceea ce a adus acest subiect în atenție a fost cel mai recent dintre o serie de lucrări de cercetare care oferă capacitatea de a “abstractiza” diverse tipuri de efecte vizuale, cum ar fi producerea de raze laser din părți imposibile ale corpului, fie prin antrenarea pe clipuri VFX comandate sau “deschise” (în loc de sursa mai evidentă, cum ar fi efectele VFX foarte scumpe găsite în producțiile universului cinematografic Marvel):
Exemple de pe site-ul EffectMaker, în care “acțiunea” din clipul sursă (în stânga) este aplicată unei imagini sursă (centru). Sursă
Exemplele de mai sus provin de pe pagina proiectului EffectMaker. EffectMaker nu este primul care oferă acest lucru în acest an, care își propune să extragă dinamica VFX dintr-un clip video și să o transpună într-un clip nou, și, de fapt, acesta se transformă într-o sub-însărcinare distinctă în cercetarea VFX IA*.
Conștienți că giganții mass-media, cum ar fi Marvel, au o șansă mai mare de a câștiga cazuri legale privind drepturile de autor (chiar și în climatul actual de “toleranță forțată”), companiile de efecte vizuale și startup-urile iau măsuri semnificative pentru a asigura că cadrul lor generativ VFX este liber de IP corporativ al altor companii.
În fruntea acestora se află Meta, care a fost raportată pe subreddit-ul r/vfx că a inițiat o ofensivă de angajare bine plătită în iarna anului 2026, oferind artiștilor VFX lucrări de antrenare a modelelor IA pentru a produce efecte vizuale de nivel Hollywood. Deși salariul nu a fost specificat în diverse postări, una l-a descris ca “bani de pensionare”.
Urmați banii
Cu toate acestea, trebuie să ne întrebăm cât de mulți bani sunt dispuși să plătească chiar și cei ca Meta pentru o diversitate și o abundență adevărată de clipuri VFX ad hoc, având în vedere că un singur cadru VFX pentru un film de blockbuster costă aproximativ 42.000 de dolari americani – și multe costă mult mai mult.
Mai mult, este logic să presupunem că modelele AI generative de VFX personalizate vor ceda cererii populare, inclusiv diverse efecte standard din categoriile de filme cele mai populare și mai scumpe.
În afara faptului că profesioniștii “rămași” VFX ar putea ajunge să recreeze cadre pe care au lucrat pentru un catalog de filme existent† – ceea ce, în sine, contextualizează “lucrul cu setul de date personalizat” ca imitativ – nu există nicio garanție că aceste mostre noi și scumpe vor fi antrenate “de la zero” într-o arhitectură complet nouă.
Într-adevăr, dacă astfel de recreări sunt deviate în module auxiliare, cum ar fi LoRAs, care se bazează pe un model de bază, atunci procesul este la fel de defensabil pe cât de “curat” din punct de vedere al drepturilor de autor este modelul de bază – și nu multe sunt.
La fel, dacă “noul” proces utilizează tehnici “hibride”, cum ar fi reglarea fină, în care valoarea efectului vizual depinde de modele, priors sau încorporări din colecții sau modele mai vechi de integritate neconfirmată, originalitatea lucrării este, în mod evident, cosmetică și supusă contestării.
Misiuni imposibile
Domeniul de ieșire VFX este un caz de studiu deosebit de interesant în ceea ce privește “spălarea” potențială a drepturilor de autor în seturile de date IA, deoarece cadrele VFX adesea înfățișează “lucruri imposibile” pentru care nu vor exista alternative deschise.
De exemplu, în timp ce demolarea unei clădiri ar putea fi antrenată într-un model generativ din diverse clipuri video cu domeniu public sau altfel accesibile, dacă doriți să antrenați un model pentru a produce raze laser umane, veți trebui să vă antrenați pe clipuri VFX, furate sau comandate; astfel de lucruri nu se întâmplă nicăieri altundeva.
Chiar și în cazul altor tipuri de dezastre naturale, cum ar fi inundații dramatice, materialul sursă disponibil din lumea reală este puțin probabil să poată reproduce perspective dramatice asupra evenimentelor calamitoase, deoarece (cu unele excepții) oamenii nu transmit în mod normal live de la locurile catastrofelor. Prin urmare, “priveliști cool” asupra dezastrelor sunt rare în seturile de date reale, și orice model IA care poate genera astfel de cadre a obținut, probabil, informațiile de undeva.
Cele mai dorite fluxuri de sarcini IA nu au acest nivel de specificitate evident, și în astfel de cazuri ascunderea beneficiilor datelor protejate prin drepturi de autor nu ar putea necesita atât de mult efort.
Concluzie: o rețea încurcată
Doar cei care au utilizat IA generativă pe o perioadă extinsă și susținută vor înțelege instinctiv că astfel de sisteme se luptă să combine multiple concepte atunci când nu există exemple comparabile în seturile lor de date de antrenare.
Această limitare se numește încurcare, în care diversele fețe ale conceptelor antrenate tind să se aglomereze împreună cu elemente asociate, mai degrabă decât să se descompună în piese utile, de tip Lego, care pot fi aranjate în orice nouă configurație pe care utilizatorul o dorește.
Încurcarea este o gaură de gravitație arhitecturală care este aproape imposibil de evitat, cel puțin pentru abordările bazate pe difuzie care caracterizează toate cadrul actual de IA de generație curentă. Cu toate acestea, se poate ca abordări noi să apară în următorii ani, care sunt mai bune la discretizarea conceptelor antrenate, astfel încât acestea să poată fi lipite împreună cu mai multă abilitate și să ofere mai puține indicii cu privire la proveniența lor.
* Nu aduc acuzații împotriva EffectMaker, dar comentez aici despre generalitatea unei practici emergente în cercetarea video IA.
† Deoarece aceste cadre, în acest tip de filme, au generat și continuă să genereze bani.
Publicat pentru prima dată luni, 16 martie 2026
Góc nhìn Anderson
IP-Washing Metoder i AI

Om det finns en juridisk uppgörelse som kommer att ske över användningen av immateriella rättigheter i utbildning av AI, finns det också flera metoder för att dölja en sådan användning.
Åsikt Den nuvarande, snabbt framskridande revolutionen inom generativ AI utvecklas i den mest rättsligt prekära miljön som har åtföljt någon transformerande teknisk utveckling sedan 1800-talet.
För 3-4 år sedan njöt maskinläringsforskningsgemenskapen en tyst (ofta uttrycklig) tillåtelse att utnyttja IP-skyddat material i utvecklingen av nya system; eftersom dessa system inte var mogna eller kommersiellt livskraftiga, var resultaten, i alla avseenden, akademiska.
Under denna period signalerade den plötsliga framgången för en ny generation av diffusionsbaserade stora språkmodeller (LLM, såsom ChatGPT och Claude) och vision-språkmodeller (VLM, såsom Sora) att dessa abstrakta och tidigare “ofarliga” forskningssträngar hade utvecklats till kommersiell livskraft och växt ur sin “fri passage”, så långt som utnyttjandet av andras immateriella rättigheter var bekymrat.
Från och med nu skulle rättighetshavare söka en andel i frukterna av AI-system som tränats till stor del eller delvis på deras upphovsrättsskyddade eller på annat sätt skyddade data, vilket ledde till en pågående lavin av rättsfall som kräver någon ansträngning för att ens hålla koll på.

Här begränsat endast till fall som väckts i USA, nya fall uppkommer i en febril takt i USA och utanför. Källa
Kräver en “kostnadsfri lunch”
Den finansiella åtagandet som för närvarande sker i fråga om AI-tjänsteinfrastruktur har beskrivits av vissa röster som en ansträngning att etablera ‘upphovsrättsfarlig’ AI så djupt i samhällets ekonomi att den blir inte bara ‘för stor för att misslyckas’, utan också ‘för kraftfull för att stämmas’ – eller för kraftfull, åtminstone, att framgångsrika stämningsanspråk kunde tillåtas att störa revolutionen.
Mot denna allmänna inställning är den nuvarande presidenten i USA engagerad i att förverkliga sin uppfattning i policy att ‘Du kan inte förväntas ha ett framgångsrikt AI-program när varje enskild artikel, bok eller annat som du har läst eller studerat, förväntas betalas för’.
Verkligen? Ingenting liknande eller jämförbart har inträffat i den västerländska industriella eran, och detta representerar en rörelse som gnider kraftigt mot den traditionella amerikanska kulturen av stämningar och skadestånd; kanske den närmaste liknande positionen är den obligatoriska utgången av medicinska patent efter 20 år (vilket i sig ofta är under attack), och begränsningen av förväntningar på sekretess på offentliga platser.
Men tider förändras; i avsaknad av någon garanti för att den nuvarande trenden mot “utmätning” mot IP-skydd inte kommer att svikta, eller annars vändas senare, finns det flera sekundära tillvägagångssätt som blir standardpraxis i utvecklingen av AI-system och behandlingen av den mycket omstridda träningsdata som driver det.
Dataset via ombud
En av dessa tillvägagångssätt tar en remarkabelt liknande tillvägagångssätt som den (inte alltid lyckade) försvar som torrent-listningssidor använder, att de inte faktiskt värdar något omstritt material – eller något material alls.
Förutom att undvika behovet av att lagra och leverera stora mängder minimalt komprimerbar bild- eller videodata, tillåter samlingar av denna typ snabb uppdatering – såsom borttagning av material efter upphovsrättshavares begäran – och versionering.
Liksom torrents endast är vägvisare till var IP-skyddat material kan hittas, är en mängd högt inflytelserika dataset endast “pekare”-liknande listor över befintlig data; om slutanvändaren vill använda dessa listor som en nedladdningslista för sitt eget dataset, är det på dem, så långt som kuratorernas ansvar verkar vara bekymrat.
Bland sådana är Google Researchs Conceptual 12M-dataset, som tillhandahåller bildtexter, men endast pekar på platser på webben där dessa bilder finns (eller fanns vid tidpunkten för kurering):

Två exempel från Google Researchs Conceptual 12M-kurering. Källa
Ett annat framstående exempel, och ett som nu har ett giltigt anspråk på vördnad i AI-historien, är LAION-datasetet som möjliggjorde framväxten av den generativa Stable Diffusion-systemet 2022 – det första sådana ramverk som erbjöd kraftfulla öppen källkodsgenererande bilder till slutanvändare, just som proprietära system tycktes vara på väg att etablera sådana tjänster som en renodlad, kommersiell domän:

En av de många varianterna av LAION-projektet, med moderna och upphovsrättsskyddade konstverk. Källa
I många fall indikerar de stora filstorlekarna för dessa “pekare”-samlingar att bildinnehåll ingår i en nedladdningsbar och värd fil; dock beror de icke-triviala nedladdningsstorlekarna ofta på den höga volymen textinnehåll och ibland inklusionen av extraherade inbäddningar eller funktioner – derivat sammanfattningar eller noder av annars tillämpligt innehåll som extraheras från källdata under utbildningsprocessen.
Video-premium
Videodataset presenterar ett ännu starkare fall för “dataset-via-ombud”- eller pekare-tillvägagångssättet, eftersom den stora mängden lagringsdata som krävs för att samla en meningsfull och användbar mängd videor i en enda nedladdningsbar samling är förbjudande, och en “distribuerad” metod är önskvärd.
Men, i båda fallen – men särskilt med video – representerar de nedladdningsbara käll-URL:erna data som kommer att behöva betydande ytterligare uppmärksamhet innan de används i utbildningsprocesser. Både bilder och videor kommer att behöva ändras i storlek, eller så måste beslut om beskärning fattas, för att skapa prover som kommer att passa in i tillgängligt GPU-utrymme. Även allvarligt nedsmalnade videor kommer att kräva skärning till mycket korta längder, såsom 3-5 sekunder, vanligtvis.
Anmärkningsvärda videodataset som använder referenser till online-videor (i stället för kurering och direkt paketering av video) inkluderar Googles Kinetics Human Action Video Dataset, och sökjättens YouTube-8M-samling, som använder segmentannotation för att ange hur man ska behandla varje video när den har laddats ned – men som återigen lämnar slutanvändaren att erhålla videorna från de tillhandahållna URL:erna.
Stängd och öppen
Slutligen, i denna kategori, kan “öppen” VFX-data genereras med stängda plattformar som sedan publicerar och gör tillgänglig den resulterande dataseten. Det är rimligt att undra varför detta händer, och att överväga om det kan bero på att det ursprungliga företaget vill sanera en IP-ovänlig uppströmsmodell för sitt eget bruk; eller att en “tvättad” uppsättning begärdes utifrån.
Ett sådant fall av “generations-TVätt” är, kanhända, Omni-VFX-datasetet, som inkorporerar många datapunkter från Open-VFX-datasetet (som i sig refererar till många stängda och semi-stängda plattformar, såsom Pika och PixVerse).
För att vara ärlig, Omni-VFX försöker inte ens riktigt:

I det öppna källkods-VFX-datasetet Omni-VFX, ett välbekant ansikte. Källa
Arvslig ansvar
Den andra stora tillvägagångssättet för IP-TVätt är genom användning av upphovsrättsskyddat material på ett eller flera steg.
En av metoderna i denna kategori är användning av syntetisk data som har tränats, vid någon punkt uppströms, på upphovsrättsskyddat data. I sådana fall, särskilt där syntetisk data kan erhålla autentiskt utseende resultat, tillhandahåller upphovsrättsskyddat arbete transformationer som inte rimligen kunde gissas eller approximeras av allmänna världsmodeller eller icke-specialiserade modeller.
Detta är särskilt fallet där generativa videosystem krävs för att generera “omöjliga” händelser, och händelser som skulle falla allmänt in i kategorin “visuella effekter” (VFX).
I själva verket var det vad som fick mig att tänka på detta ämne som var den senaste i en serie forskningsartiklar som erbjuder förmågan att “abstrahera” olika typer av visuella effekter, såsom att producera laserstrålar från osannolika delar av kroppen, antingen genom att ha tränats på beställda eller “öppen källkod”-VFX-klipp (i stället för den mer uppenbara källan, såsom de mycket dyra VFX-skotten som finns i utdata från Marvel Cinematic Universe):
Exempel från EffectMaker-webbplatsen, där “aktionen” i källklippet (längst till vänster) appliceras på en källbild (mitten). Källa
Ovanstående exempel kommer från projektsidan för EffectMaker-projektet. EffectMaker är inte ens det första erbjudandet i år som syftar till att extrahera VFX-dynamik från en videoklipp och transponera den till en ny klipp, och det är faktiskt på väg att bli en diskret underuppgift i AI-VFX-forskning*.
Medveten om att mediejättar som Marvel har en högre än genomsnittlig chans att vinna rättsfall över IP (även i den ovannämnda klimatet av “tvingad tolerans”), går visuella effektföretag och startups för närvarande till betydande längder för att säkerställa att deras generativa VFX-ramverk är fria från andra företags företags-IP.
Främst bland dessa är Meta, som har rapporterats på r/vfx-subreddit att ha gått på en välavlönad vinterrekryteringsrunda in i 2026, och erbjuder VFX-artister arbete med att träna AI-modeller för att producera Hollywood-nivå visuella effekter. Även om lönen inte specificerades över olika inlägg, beskrevs den av en som “pensionspengar”.
Följ pengarna
Men man måste undra hur mycket pengar till och med jättar som Meta är villiga att betala för en sann diversitet och överflöd av ad hoc-VFX-skott, med tanke på att den genomsnittliga enskilda VFX-skottet för en blockbuster-film är runt 42 000 USD – och många kommer in för mycket högre.
Förutom det faktum att “resterande” VFX-proffs kan hamna i att återskapa skott som de arbetade på för en befintlig filmkatalog† – vilket i sig kontextualiserar det “anpassade” dataset-arbetet som imitativt – finns det ingen garanti för att dessa dyra nya prover kommer att tränas “från scratch” i en helt ny arkitektur.
Faktum är att om sådana rekreations avleds till adjunktsmoduler som LoRAs, som förlitar sig på en basmodell, då är processen endast så försvarbar som basmodellen är “IP-ren” – och inte många är.
På samma sätt, om den “nya” processen använder andra “hybrida” tekniker som finjustering, där värdet av den visuella effekten beror på modeller, priorer, eller inbäddningar från äldre samlingar eller modeller av tvivelaktig integritet, är originaliteten i arbetet kosmetisk, och föremål för utmaning.
Omöjliga uppdrag
Domänen för VFX-utdata är ett särskilt intressant fallstudie i fråga om potentiell IP-TVätt i AI-dataset, eftersom visuella effekter ofta avbildar “omöjliga” saker för vilka det kommer att finnas inga öppna källkodsalternativ tillgängliga.
Till exempel, medan rivningen av en byggnad kunde tränas in i en generativ modell från olika allmänna domäner eller på annat sätt billiga aktieklipp, om du vill träna en modell för att producera mänskliga laserstrålar, kommer du att behöva träna på VFX-klipp, stulna eller beställda; sådant händer inte någon annanstans.
Även i fallet med andra typer av naturkatastrofer, såsom dramatisk översvämning, är tillgängligt källmaterial i verkligheten osannolikt att kunna reproducera dramatiska perspektiv på katastrofala händelser, eftersom (med några undantag) människor inte vanligtvis live-streamar från katastrofala platser. Därför är “svala vyer” på katastrofer sällsynta i verkliga dataset, och varje AI-modell som kan generera dem troligen fick informationen någon annanstans.
De flesta önskvärda AI-uppgiftsflöden har inte denna tydliga nivå av specificitet, och i sådana fall kan döljandet av fördelarna med IP-skyddat data inte kräva nästan så mycket ansträngning.
Slutsats: En invecklad webb
Endast de som har använt generativ AI omfattande och under en lång tid kommer instinktivt att förstå att sådana system kämpar för att kombinera flera koncept när inga jämförbara exempel finns i deras träningsdata.
Denna begränsning kallas inveckling, där de olika aspekterna av tränade koncept tenderar att klustra ihop med relaterade element, snarare än att bryta ned i användbara, Lego-liknande byggstenar som kan arrangeras i vilken ny konfiguration som helst som användaren kan önska.
Inveckling är en arkitektonisk tyngdkraft som är ganska omöjlig att undkomma, åtminstone för de diffusionsbaserade tillvägagångssätten som kännetecknar alla stora nuvarande genAI-ramverk. Men det kan hända att nya tillvägagångssätt utvecklas under de kommande åren som är bättre på att diskretisera tränade koncept så att de kan klistras ihop mer skickligt, och erbjuda färre indikationer på deras ursprung.
* Jag gör inga anklagelser mot EffectMaker, men kommenterar här på det generella tillvägagångssättet i en framväxande praxis inom AI-videoforskning.
† Eftersom dessa skott, i dessa typer av filmer, har genererat och fortsätter att generera pengar.
Publicerad första gången måndagen den 16 mars 2026
Góc nhìn Anderson
IP-Washing Menetelmät AI:ssa

Jos on oikeudellinen selvittely tuleva älyomaisuuden käytöstä tekoälyssä, on myös useita menetelmiä tällaisen käytön peittämiseksi.
Mielipide Tekoälyssä tapahtuva nykyinen nopeasti etenevä vallankumous on tapahtumassa oikeudellisesti epävakaa ympäristö, joka on seurannut mitä tahansa muunnostavaa teknologista kehitystä 1800-luvun jälkeen.
Kolme-neljä vuotta sitten koneoppimistutkimusyhteisöllä oli oletettu (usein eksplisiittinen) lupa hyödyntää tekijänoikeuksien suojamaista materiaalia uusien järjestelmien kehittämisessä; koska nämä järjestelmät eivät olleet vielä onnistuneita, niiden tulokset olivat kaikissa suhteissa akateemisia.
Tänä aikana uuden sukupolven difuusiopohjaisen Large Language Modelien (LLM, kuten ChatGPT ja Claude) ja Vision-Language Modelien (VLM, kuten Sora) yllättävä menestys merkitsi, että nämä abstraktit ja aiemmin “harmittomat” tutkimuksen suunnat olivat kehittyneet kaupallisesti kannattaviksi ja kasvaneet “vapaan kulkukortin” yli, mitä tuli tekijänoikeuksien suojatun datan hyödyntämiseen.
Tästä lähtien oikeuksienomistajat tavoittelivat osuutta tekoälyjärjestelmien hedelmistä, jotka oli koulutettu suurelta osin tai osittain heidän tekijänoikeuksien suojatuilla tai muilla tavoin suojatuilla tiedoillaan, johtaen jatkuvaan lainsäädäntökuorman vaatii jonkin verran ponnistelua vain pysyäkseen perillä.

Tässä rajoitettu vain Yhdysvalloissa käynnistettyihin tapauksiin, uudet tapaukset nousevat frenetiikan tahdissa Yhdysvalloissa ja muualla. Lähde
Määrätty “Ilmainen lounas”
Teollisuuden taloudellinen sitoutuminen tekoälypalveluinfrastruktuuriin on esitetty joissakin äänissä pyrkimyksenä juurtaa “tekijänoikeuksellisesti vaarallinen” tekoäly niin syvälle taloudelliseen yhteiskuntaan, että se tulee “liian suureksi epäonnistumiseksi” tai “liian voimakkaaksi haastettavaksi” – tai ainakin niin voimakas, ettei onnistuneet oikeudenkäynnit voisi saada kääntymään vallankumousta vastaan.
Tähän yleiseen mielipiteeseen nykyinen Yhdysvaltain presidentti on sitoutunut politiikkaansa hänen näkemyksensä mukaan, että ‘Et voi odottaa menestyvää tekoälyohjelmaa, kun jokaisen artikkelin, kirjan tai mitä tahansa muuta, mitä olet lukenut tai opiskellut, on maksettava’.
Oikeasti? Mitään vastaavaa tai vertailukelpoista ei ole tapahtunut länsimaisessa teollisessa aikakaudesta, ja tämä edustaa liikettä, joka kulkee voimakkaasti vastakkaiseen suuntaan kuin perinteinen Yhdysvaltain kulttuuri oikeudenkäynneistä ja korvauksista; ehkä lähimmät samanlaiset asemat ovat pakollinen lääkepatenttien vanheneminen 20 vuoden jälkeen (joka itsessään usein hyökätty), ja rajoitus yksityisyyden odotuksille julkisilla paikoilla.
Kuitenkin ajat muuttuvat; puuttuessa mitään takeita siitä, ettei nykyinen suunta “julkinen omistusoikeus” tekijänoikeuksien suojaa vastaan epäonnistuisi tai kääntyisi myöhemmin, on useita toissijaisia lähestymistapoja, jotka tulevat standardikäytännöksi tekoälyjärjestelmien kehittämisessä ja kiistanalaisen koulutusdatan kohtelussa, joka voimistaa sitä.
Tietokannat Välittäjänä
Yksi näistä lähestymistavoista noudattaa hämmästyttävästi samanlaista puolustusta kuin (ei aina onnistunut) puolustus torrent-listauspaikoilla, jotka eivät itse isännöi mitään kiistanalaista materiaalia – tai mitään materiaalia lainkaan.
Lisäksi siihen, että tällaiset kokoelmat mahdollistavat nopean päivittämisen – kuten kiistanalisen aineiston poistamisen tekijänoikeuksien haltijoiden pyynnöstä – ja versionoinnin.
Samoin kuin torrentit ovat vain opasteita siihen, missä tekijänoikeuksien suojattu materiaali voidaan löytää, useat erittäin vaikutusvaltaiset tietokannat ovat itsessään vain “osoitin”-tyylisiä listoja olemassaolevasta datasta; jos loppukäyttäjä haluaa käyttää näitä listoja latausluettelona omalle tietokannalleen, se on heidän vastuullaan, mitä tietokantojen vastuulla näyttäisi olevan.
Tällaisia ovat esimerkiksi Google Researchin Conceptual 12M -tietokanta, joka tarjoaa kuvien kuvauksia, mutta osoittaa vain verkkosivustoihin, joilla nämä kuvat ovat olemassa (tai olivat kuratointiaikana):

Kaksi esimerkkiä Google Researchin Conceptual 12M -kuratoinnista. Lähde
Toinen merkittävä esimerkki, ja yksi, jolla on nyt oikeutettu vaatimus kunnioitukseen tekoälyn historiassa, on LAION-tietokanta, joka mahdollisti Stable Diffusion -generatiivisen järjestelmän syntymän vuonna 2022 – ensimmäinen tällainen kehys, joka tarjosi voimakkaita avoimia generatiivisia kuvia loppukäyttäjille, kun omistajajärjestelmät näyttivät vakiinnuttavan tällaiset palvelut puhtaasti kaupallisiksi alueiksi:

Yksi monista LAION-projektin variantteja, joka esittelee modernia ja tekijänoikeuksien suojattua taidetta. Lähde
Video Premium
Video-tietokannat esittävät vielä vahvemman tapauksen “tietokanta-välittäjä”- tai osoitinlähestymistavan puolesta, koska suuren määrän tallennustiedon kokoaminen merkittävään ja hyödylliseen määrään videoita yhteen ladattavaan kokoelmaan on esteettä, ja “jakautunut” menetelmä on toivottava.
Kuitenkin sekä tapauksissa – mutta erityisesti videon kanssa – ladattavien lähde-URL-osoitteiden edustama data vaatii merkittävää lisähuomiota ennen kuin sitä voidaan käyttää koulutusprosesseissa. Sekä kuvat että videot vaativat uudelleenkokoa tai sitten leikkauspäätöksiä tehdään, jotta voidaan luoda näytteitä, jotka sopivat saatavilla olevaan GPU-tilaan. Jopa vakavasti alennettuja videoita vaaditaan myös leikkaamista hyvin lyhyiksi kestoihin, kuten 3-5 sekuntia, tyypillisesti.
Merkittäviä video-tietokantoja, jotka käyttävät viittauksia verkkovideoihin (sen sijaan, että ne pakkaavat suoraan videot) ovat Googlein Kinetics Human Action Video Dataset ja hakukoneen YouTube-8M-kokoelma, joka käyttää segmentointia osoittaakseen, miten kohdella kunkin videota, kun se on ladattu – mutta joka jättää loppukäyttäjän hankkimaan videot toimittamista URL-osoitteista.
Lähellä ja Avoin
Lopulta, tässä luokassa, “avoin” VFX-data voidaan generoida suljetuilla alustoilla, jotka julkaisevat ja tekevät tulokset saataville tietokannan. On järkevää ihmetellä, miksi tämä tapahtuu, ja harkita, voitaisiiko se johtua siitä, että alkuperäinen yritys haluaa puhdistaa IP-vastaisen ylävirta- mallin omiin tarkoituksiinsa; tai että “pesitty” joukko pyydettiin ulkoa.
Yksi tällainen “sukupolven pesu” on, argumentoi, Omni-VFX-tietokanta, joka sisältää monia tietopisteitä Open-VFX-tietokannasta (joka itsessään viittaa moniin suljettuihin ja osittain suljettuihin alustoihin, kuten Pika ja PixVerse).
Rehellisesti, Omni-VFX ei edes yritä:

Avoimessa Omni-VFX-tietokannassa tuttu kasvo. Lähde
Esivanhempi Vastuu
Toinen tärkeä lähestymistapa IP-pesuun on tekijänoikeuksien suojatun materiaalin käyttäminen yhdellä tai useammalla etäisyydellä. Yksi menetelmistä tässä luokassa on synteettisen datan käyttäminen, joka on koulutettu jossakin vaiheessa ylävirrassa tekijänoikeuksien suojatuilla tiedoilla. Tällaisissa tapauksissa, erityisesti kun synteettinen data pystyy saavuttamaan aidon näköisiä tuloksia, tekijänoikeuksien suojattu työ tarjoaa muunnoksia, joita ei voi järkevästi arvata tai approksimoida yleisillä maailmanmalleilla tai erikoistumattomilla malleilla.
Tämä on vahvasti tapahtumassa silloin, kun generatiiviset videosysteemit vaativat “mahdottomien” tapahtumien generoimista, ja tapahtumia, jotka kuuluvat yleisesti “visuaalisten efektiiden” (VFX) luokkaan.
Itse asiassa, se, mikä toi tämän aiheen mieleeni, oli viimeisin tutkimusraportti, joka tarjosi mahdollisuuden “abstrahoida” erilaisia visuaalisen efekti-tyyppejä, kuten laser-säteiden tuottamista epätodennäköisistä kehon osista, joko tilaamalla custom-VFX-klippejä (sen sijaan, että olisi käytetty ilmeisempää lähdettä, kuten Marvelin elokuvasarjan hyvin kalliita VFX-otoksia):
Esimerkit EffectMakerin verkkosivuilta, joissa “toiminta” lähdeklipissä (kaukana vasemmalla) sovelletaan lähdekuvaan (keskellä). Lähde
Yllä olevat esimerkit ovat EffectMaker-projektin sivuilta. EffectMaker ei ole edes ensimmäinen tarjous tänä vuonna, joka pyrkii erottamaan VFX-dynaamikoita yhdestä videoklipistä ja siirtämään sen uuteen klippiin, ja se on muuttumassa erilliseksi tehtäväksi tekoäly-VFX-tutkimuksessa*.
Tietoisina siitä, että mediajätit, kuten Marvel, ovat korkeamman todennäköisyyden saavuttaneet oikeudenkäynneissä tekijänoikeuksien ympärillä (jopa mainitussa ilmapiirissä “pakkotoleranssi”), visuaalisten efekti-yhtiöt ja startupit tekevät parhaansa varmistamaan, että heidän generatiiviset VFX-kehyksensä ovat vapaita muiden yhtiöiden yritys-IP:stä.
Ennen kaikkea Meta on raportoitu r/vfx-alustalla menneen hyvin palkatun talven palkkaamiskierroksen vuonna 2026, tarjoten VFX-taiteilijoille työtä kouluttamassa tekoälymallit tuottamaan Hollywood-tasoisia visuaalisia efekti-otoksia. Vaikka palkkaa ei mainittu eri postauksissa, yksi kuvasi sitä “eläke-rahaksi”.
Seuraa Rahoitusta
Kuitenkin on ihmeteltävä, kuinka paljon rahaa edes Meta on valmis maksamaan todellisesta monimuotoisuudesta ja runsaudesta “ad hoc” VFX-otoksia varten, kun keskivertoinen yksittäinen VFX-otoksa elokuvassa on noin 42 000 USD – ja monet tulevat paljon kalliimmaksi.
Lisäksi on järkevää olettaa, että mukautettavat VFX-generoivat tekoälymallit tulevat suosimaan suosiota, mukaan lukien erilaisia standardiefekti-kliseitä suosituimmista ja kalleimmista elokuvista.
Puheenjohtajan näkökulmasta “jäännös”-VFX-ammattilaiset voivat lopulta luoda uudelleen otoksia, joissa he ovat työskennelleet olemassa olevaan elokuvakatalogiin – mikä itsessään kontekstualisoi “mukautetun” tietokantatyön jäljitelmäksi – on siinä, että nämä kalliit uudet näytteet eivät välttämättä pääty hämmästyttävästi uuteen arkkitehtuuriin “nollasta”.
Itse asiassa, jos nämä rekonstruktioita ohjataan sivumoduuleihin, kuten LoRAs, jotka riippuvat perusmallista, prosessi on vain niin puolustettavissa kuin perusmalli on “IP-puhdas” – ja monet eivät ole.
Samoin, jos “uusi” prosessi käyttää muita “hybridi”-tekniikoita, kuten hienosäätöä, jossa visuaalisen efekti-arvo perustuu malleihin, prioriteetteihin tai upotukseen vanhemmista kokoelmista tai malleista, joiden alkuperä on epävarma, alkuperäisyys on kiistelyn alainen.
Mahdottomat Tehtävät
Visuaalisten efekti-otosten alue on erityisesti mielenkiintoinen tapaustutkimus IP-pesun suhteen tekoälytietokannoissa, koska visuaaliset efekti-otokset usein esittävät “mahdottomia” asioita, joille ei ole avoimia vaihtoehtoja saatavilla.
Esimerkiksi, vaikka rakennuksen purkaminen voidaan kouluttaa generatiiviseen malliin eri julkisen alan tai muuten edullisten stock-klipien avulla, jos haluat kouluttaa mallin tuottamaan ihmisten laser-säteitä, sinun on koulutettava se VFX-klippejä, varastettuja tai tilattuja; sellaisia asioita ei tapahdu muualla.
Jopa muiden luonnonkatastrofien, kuten dramaattisen tulvivuodon, tapauksessa saatavissa oleva reaaliaineisto ei välttämättä pysty tuottamaan dramaattisia näkökulmia katastrofaalisista tapahtumista, koska (joillakin poikkeuksilla) ihmiset eivät yleensä lähettä suoraa lähetystä katastrofaalisista paikoista. Siksi “cool views” katastrofeista ovat harvinaisia reaaliaineistoissa, ja mikä tahansa tekoälymalli, joka voi generoida niitä, on todennäköisesti saanut tiedon jostakin muualta.
Useimmat toivottavat tekoälytehtävät eivät ole tässä määrin spesifiä, ja tällaisissa tapauksissa IP-suojatun datan hyödyntämisen peittäminen ei välttämättä vaadi läheskään niin paljon vaivaa.
Johtopäätös: Sekaannus
Vain ne, jotka ovat käyttäneet generatiivista tekoälyä laajasti ja pitkään, ymmärtävät vaistomaisesti, että tällaiset järjestelmät kamppailevat yhdistämällä useita käsitteitä, kun vertaisia esimerkkejä ei ole heidän koulutusdatassa.
Tämä rajoitus tunnetaan sekavana, jossa koulutettujen käsitteiden eri puolet taipuvat usein ryhmiin liittyviksi alaryhmiksi, sen sijaan, että ne hajoaisivat käteviksi, Lego-tyylisiksi rakennuspalikoiksi, jotka voidaan järjestää mihin tahansa uuteen konfiguraatioon, jonka käyttäjä haluaa.
Sekaannus on arkkitehtoninen painovoimainen kuilu, josta on lähes mahdotonta paeta, ainakin difuusiopohjaisille lähestymistavoille, jotka ovat kaikkien nykyisten päätekoälykehysten ominaisuuksia. Kuitenkin on mahdollista, että uudet lähestymistavat tulevat kehittymään seuraavien vuosien aikana, jotka ovat parempia diskreettisempien koulutettujen käsitteiden yhdistämisessä, jotta ne voidaan liittää yhteen taitavammin ja tarjoavat vähemmän osoituksia niiden alkuperästä.
* En esitä syytöksiä EffectMakeria vastaan, vaan kommentoin yleisyyttä nousevasta käytännöstä tekoäly-videotutkimuksessa.
† Koska nämä otokset, näissä elokuvissa, ovat tuottaneet ja jatkavat tuottamaan rahaa.
Julkaistu ensimmäisen kerran maanantaina 16. maaliskuuta 2026
