Connect with us

IP-Washing Methods in AI

Andersonの視点

IP-Washing Methods in AI

mm
An AI-generated image of Lady Justice surrounded by 'laundered' data. GPT-1.5.

知的財産権をめぐる法的対決がAIの利用において起こり得る場合、知的財産権の使用を隠す方法もいくつかあります。

 

意見 現在、急速に進化しているジェネレーティブAIの革命は、19世紀以来、どの変革的な技術的発展にも伴わなかった法的脆弱な環境で進行しています。

3〜4年前まで、機械学習研究コミュニティは、IP保護された資料を新しいシステムの開発において利用することを黙示的(または明示的)に認められていました。なぜなら、これらのシステムはまだ成熟していなかったか、商業的に実用的なものではなかったからです。その結果は、すべての意味で学術的なものでした。

その期間に、新しい世代の拡散ベースの大規模言語モデル(LLM、例:ChatGPTやClaude)やビジョン言語モデル(VLM、例:Sora)の突然の成功は、これらの抽象的で無害だった研究の筋が商業的に実用的なものに成長し、IP保護された資料の利用に関する「無料パス」が終了したことを示しました。

今後、権利者は、著作権で保護されたまたはその他の保護されたデータで大部分または一部で訓練されたAIシステムの成果に対して利益を求めるでしょう。これにより、法的なケースの連鎖が生じ、追跡するのに一定の努力が必要になります。

米国で提起されたケースに限定された場合、米国およびその他の地域では、新しいケースが激しいペースで登場しています。ソース - https://copyrightalliance.org/artificial-intelligence-copyright/court-cases/

ここでは米国で提起されたケースに限定していますが、米国およびその他の地域では、新しいケースが激しいペースで登場しています。 ソース

『無料ランチ』の義務付け

現在、AIを支えるインフラストラクチャーへの投資は、現在進行中です。いくつかの声は、これを「著作権の危険性のある」AIを経済社会に深く根付かせる試みと見なし、失敗することや訴訟によって革命が崩壊することを許すことができないほど、強大で権力を持ったものにすることを目的としたものと見ています。

この一般的な意見に向けて、アメリカ合衆国大統領は、政策に組み込む 彼の見解 を、「あなたが読んだり研究したりしたすべての記事、書籍、またはその他のものに対して支払う必要があると期待されることはできません」 と述べています。

本当に?西洋の産業革命時代にこれに似たまたは同等のことが起こったことはありません。これは、伝統的な米国の訴訟と補償の文化と大きく反するものです。最も近い立場は、医薬品特許の有効期間が20年後に必ず失効すること(これ自体が頻繁に攻撃される)と、プライバシーに関する期待の制限 です。

しかし、時勢は変わります。現在の「財産権」に対する「強制的寛容」の傾向が後で失敗したり逆転したりしないことを保証するものがない場合、AIシステムの開発と、訓練データの扱いにおいて、いくつかの二次的なアプローチが標準的な慣行になりつつあります。

代理データセット

これらのアプローチの1つは、(常に成功するとは限らない) トレントリストサイトの防御に似たアプローチを取ります。つまり、実際には何もホストしていないということです。

画像やビデオデータの大量の非圧縮可能なファイルを保存および提供する必要性を回避するだけでなく、これらのコレクションを使用すると、迅速な更新(著作権者の要望に応じて資料の削除など)やバージョニングが可能になります。

トレントは、IP保護された資料が見つかる場所を示すだけであるように、一部の非常に影響力のあるデータセットは、実際には「ポインタ」スタイルのリストであり、既存のデータです。如果エンドユーザーがこれらのリストを自分のデータセットのダウンロードリストとして使用したい場合は、それは彼ら自身の責任となります。

そのようなデータセットの1つは、Google Researchの Conceptual 12M です。これは、画像のキャプションを提供しますが、画像が存在する(またはカーセット時に存在した)ウェブ上の場所 を示すだけです。

Google ResearchのConceptual 12Mの例。ソース - https://github.com/google-research-datasets/conceptual-12m/blob/main/images/cc12m_1.jpg

Google ResearchのConceptual 12Mの例。 ソース

別の著名な例は、LAIONデータセット であり、2022年にStable Diffusionジェネレーティブシステム の出現を促しました。Stable Diffusionは、最初のオープンソースジェネレーティブ画像をエンドユーザーに提供するフレームワークでした。

LAIONプロジェクトのバリアントの1つ、現代の著作権付きアートワークを特集。ソース - https://huggingface.co/datasets/laion/relaion-pop/viewer/default/train

LAIONプロジェクトのバリアントの1つ、現代の著作権付きアートワークを特集。 ソース

ビデオプレミアム

ビデオデータセットは、より強いケースを「代理」アプローチまたはポインタアプローチとして提示します。なぜなら、有意義で有用な数のビデオを1つのダウンロード可能なコレクションにまとめるために必要な大量のストレージデータは、禁止されています。分散型の方法が望ましいからです。

しかし、画像とビデオの両方の場合(特にビデオの場合)、ダウンロード可能なソースURLは、訓練プロセスで使用する前に大幅な注意が必要なデータを表します。画像とビデオの両方は、利用可能なGPUスペースに収まるように、サイズを変更する必要があります。さらに、ビデオの場合、3〜5秒の非常に短い長さにカットする必要があります。

注目すべきビデオデータセットの1つは、Googleの Kinetics Human Action Video Dataset であり、ビデオを直接カーセットおよびパッケージ化するのではなく、オンラインビデオへの参照を使用します。

クローズドとオープン

最後に、このカテゴリでは、オープンVFXデータは、クローズドプラットフォームで生成され、結果のデータセットが公開および利用可能になります。なぜこれが起こるのか、またはこれが起こる理由を考えることができ、発生源となる会社が、自身の使用のために、IPに友好的でないアップストリームモデルをサニタイズしたいと考えているのか、または「洗浄された」セットが外部から要求されたのかを考えることができます。

そのような「世代間の洗浄」の1つのケースは、Omni-VFXデータセット であり、Open-VFXデータセット の多くのデータポイントを含みます(これ自体が、PikaやPixVerseなどのクローズドおよびセミクローズドプラットフォームを参照します)。

オープンソースのOmni-VFXデータセットに含まれる、見慣れた顔。ソース - https://huggingface.co/datasets/GD-ML/Omni-VFX/blob/main/Harley/pixverse%252Fmp4%252Fmedia%252Fweb%252F15e45744-64b1-4a41-84de-626225cf017b_seed734716767.mp4

オープンソースのOmni-VFXデータセットに含まれる、見慣れた顔。 ソース

先祖の責任

IP洗浄の2番目の主要なアプローチは、著作権保護された資料を1つまたは複数の段階で使用することです。このカテゴリの方法の1つは、合成データ を使用することです。これは、どこかで著作権保護されたデータで訓練されています。特に、合成データが本物のような結果を得ることができる場合、著作権保護された作品は、一般的な世界モデルまたは専門化されていないモデルによって推測または近似できない変換を提供します。

これは、特にジェネレーティブビデオシステムが「不可能な」イベントや、一般的に「視覚効果」(VFX)のカテゴリに入るイベントを生成する必要がある場合に当てはまります。

実際、話題を引き出したのは、微調整 などの「ハイブリッド」テクニックを使用して、さまざまな種類の視覚効果(例:身体の不可能な部分からレーザービームを生成する)を抽出して、新しいクリップに転送する能力を提供する最新の研究論文のシリーズでした。

EffectMakerのウェブサイトからの例。ソース – EffectMaker

上記の例は、EffectMakerプロジェクト のプロジェクトページから来ています。EffectMakerは、今年これを提供する最初のものではありません。実際、これはAIのVFX研究における離散的なサブタスクになっています。

メディアの大手企業であるマーベルは、IPに関する法的なケースを勝つ可能性が高いことを認識して、視覚効果会社やスタートアップは、ジェネレーティブVFXフレームワークが他社の企業IPから自由であることを保証するために、多大な努力を払っています。

最も注目すべきのは、Metaです。Metaは、r/vfxのサブレディット で報告されているように、2026年冬に、VFXアーティストに、ハリウッドレベルの視覚効果ショットを出力するAIモデルを訓練する仕事を、多大な報酬で提供しています。報酬はさまざまな投稿で指定されていませんが、1つの投稿では「退職金」と表現されています。

お金の流れを追え

しかし、メタのような大手企業が、真正な多様性と豊富さを持つアドホックVFXショットのためにいくらのお金を払う用意があるのか疑問に思う必要があります。なぜなら、ブロックバスター映画の平均的な1つのVFXショットのコストは、約42,000ドル であるからです。さらに多くのショットは、はるかに高価です。

さらに、ベースモデルが「IPクリーン」である限り、カスタムVFXショットを生成するAIモデルが、LoRAs などの付加モジュールに転用される可能性があることを考えると、これらの高価な新しいサンプルが「ゼロから」新しいアーキテクチャで訓練される可能性は低いです。

不可能な使命

VFXの出力のドメインは、潜在的なAIデータセットのIP洗浄に関する特に興味深いケーススタディです。なぜなら、視覚効果ショットは、オープンソースの代替品が利用できない 「不可能な」ものを表現することが多いからです。

例えば、建物の解体は、さまざまなパブリックドメインまたはその他の安価なストッククリップからジェネレーティブモデルに訓練できますが、人間のレーザービームを生成するモデルを訓練したい場合は、盗まれたり依頼されたりしたVFXクリップで訓練する必要があります。そういうことは他では起こりません。

自然災害の場合も、ドラマティックな洪水など、利用可能な実世界のソース資料は、劇的なPOVの災害イベントを再現することができません。なぜなら、(一部の例外 を除いて)人々は、通常、災害の場所からライブストリーミングを行わないからです。したがって、「クールなビュー」は実世界のデータセットでは珍しく、ドラマティックなPOVを生成できるAIモデルは、情報を他の場所から取得した可能性があります。

ほとんどの望ましいAIタスクフローは、IP保護されたデータの利点を隠すためにこれほど多くの努力を必要としません。

結論:絡み合ったウェブ

ジェネレーティブAIを広範囲にわたって使用し、継続的に使用したことがある人は、こうしたシステムが、訓練データに相当する例がない場合、複数の概念を組み合わせるのに苦労することを直感的に理解するでしょう。

この制限は、エンタングルメント と呼ばれ、訓練された概念のさまざまな側面が、関連する要素とともにクラスター化する傾向があり、ユーザーが望む新しい構成に配置できる便利なレゴブロックのようなものにはなりません。

エンタングルメントは、現在の主要なgenAIフレームワークの特徴である拡散ベースアプローチの特徴である、逃れることがほとんど不可能なアーキテクチャの重力の井戸です。ただし、訓練された概念をより巧みに組み合わせることができる新しいアプローチが、次の数年間に登場する可能性があります。

 

* 私はEffectMakerに対して非難を加えるのではなく、AIビデオ研究における新たな実践の一般性についてコメントしています。

これらのショットは、これらのタイプの映画でお金を稼ぎ続けているからです。

2026年3月16日月曜日に最初に公開されました。

機械学習に関するライター、ヒューマンイメージシンセシスのドメインスペシャリスト。Metaphysic.aiの研究コンテンツ責任者を務めた。