Connect with us

Dr Mathilde Pavis, OpenOrigins の法務責任者 – インタビュー シリーズ

インタビュー

Dr Mathilde Pavis, OpenOrigins の法務責任者 – インタビュー シリーズ

mm

Dr Mathilde Pavis、OpenOrigins の法務責任者は、AI 規制とデジタル メディア ガバナンスの第一人者であり、ディープフェイク、合成メディア、コンテンツの出典について専門知識を持っています。彼女は、企業、政府、労働組合に、生成的な AI に関するコンプライアンス、ライセンス、リスクについてアドバイスしています。また、Microsoft や ElevenLabs との AI ポリシーと戦略についても協力しています。さらに、ユネスコに AI と知的財産についてアドバイスし、イギリスの政策立案者に専門家の証言を提供しています。

OpenOrigins は、デジタル コンテンツの出典を確立することで、誤情報とディープフェイクに対抗する技術を開発しています。そのプラットフォームは、コンテンツの作成、編集、配布の時期と方法を明確に示すことに焦点を当てており、合成メディアがより高度になり、検出が困難になるにつれて、メディア、クリエイター、プラットフォームにとってますます重要な機能になっています。

あなたは、政府、ユネスコのような世界的機関、Microsoft や ElevenLabs などの企業に、AI 規制についてアドバイスしています。ディープフェイク、デジタル レプリカ、合成メディアに特に焦点を当てるようになったのは何が原因でしたか。また、その旅は Replique を設立するという決定にどのように影響しましたか。

私のディープフェイクに関する研究は、技術から始まるものではありませんでした。それは、むしろ古い法律のパズルから始まりました。2013 年に、私は知的財産について博士課程で研究を始めたとき、パフォーマーが著者、作曲家、映画製作者と比較して受ける保護が少ないことに気づきました。実践的には、それはあなたの言葉や音楽が法律でより良く保護されることを意味しますが、あなたの声、あなたの顔、あなたの体はそうではありません。その不均衡はおかしいと思われました、それは私により深い質問を提起させました。スクリーン上で顔、声、体を提供する人の仕事を、私たちは文化的かつ法的にどのように評価するのでしょうか。

その質問は、私をパフォーマーの権利とデータの研究に導きました。当時、それはニッチな分野で商業的な関心は少ないと考えられていました。私は、特許や従来の著作権のような「より儲かる」分野に移ることを積極的に勧められました。業界の規範や「ハリウッドの紳士協定」によって、ある人の似顔絵や声に関する問題が大部分が非公式に管理されていると考えられていました。しかし、私にとって、それは研究の死角ではなく、ギャップを示唆するものでしたので、私はそれを続けました。

何が変わったのかというと、今日、ほぼすべての人がパフォーマーです。私たちの生活はカメラを通じて媒介されます。携帯電話、ラップトップ、ビデオ会議、ソーシャル プラットフォームで、仕事や個人的な使用のために、人々は不断に自分自身のバージョンを記録し、共有しています。元々は主に俳優やミュージシャンに適用されていた法的質問は、今ではスマートフォンを持つ誰にも適用されます。

ディープフェイクは、これらの問題を生み出すものではありませんでした。ただし、それらを露呈し、加速させました。2013 年から行ってきた研究は、突然、緊急性を持つようになりました。2017 年と 2018 年には、MIT や UC バークレーのような場所から出てきたニューラル ネットワークの進歩は、人の顔、声、体がどれだけ信頼性の高い方法でデジタルに操作できるかを示しました。1 年以内に、その機能は「ディープフェイク」として広く知られるようになり、特に非同意性の性的コンテンツを標的にした女性や子供たちに対して、深刻な有害な方法で最初に普及しました。

その後、商業的な意味合いが現れました。クリエイティブ産業が合成メディアを採用し始めたとき、 私が働いていた契約上および経済上の質問が前面に出てきました。ほぼ一夜にして、法的観点から見ると、理論的または教義的な法の分野は、非常に実用的で商業的に重要で社会的に緊急な分野になりました。

その核心にある法的課題は、変わりません。人々は自分自身の側面を共有したいですが、まだ有意義な制御を保持したいと思っています。既存の枠組みは、そのニュアンスに苦労しています。個人が完全にプライベートまたは完全にパブリックであるかのように扱う傾向があります。保護されているか、公平なゲームであるかです。しかし、ほとんどの人はその間にあるところにいます。その緊張は、プロのパフォーマーにとってだけでなく、デジタル ライフに参加するすべての人にとって、中央的なものになりました。

私はこの分野で研究し、仕事をしていることで知られるようになりました。それが、私を政府に導きました。政府はディープフェイクから人々を保護したいと考え、また、Microsoft や ElevenLabs などの企業は、デジタル クローニング製品を安全に使用できるようにしたいと考えました。Replique では、私は学んだことを、デジタル クローニングまたはデジタル レプリカ技術を責任を持って安全に使用したい人々や企業に提供します。基本的に、私は「青空」の研究を、クリエイティブ産業に専門の法的アドバイスを提供するアドバイザリービジネスに変えました。

OpenOrigins の法務責任者として、コンテンツの出典を不変の記録で確立する会社です。ディープフェイクに対抗するために、出典ベースのシステムが従来のディープフェイク検出アプローチとどのように競合または置き換えるかを見て取りますか。

ディープフェイク検出ツールを比較することは、すぐにリンゴとオレンジの比較になることがあります。なぜなら、その有効性はコンテキストと目的によって決まるからです。政策の観点から、私たちが必要とするのは、補完的なツールの範囲です。1 つの「最良」の解決策はありません。OpenOrigins は、より広いエコシステムの 1 つの部分です。OpenOrigins の技術がディープフェイク検出ソリューションとして際立っているのは、コンテンツ作成者または情報組織が、パートナー、聴衆、または一般大衆と共有するコンテンツの真実性を証明する必要がある状況です。

作成時に検証可能な出典と「レシート」を提供することで、それはコンテンツがディープフェイクではないことを示す強力な形の予防策を提供します。ただし、このアプローチは、オンラインで出会ったコンテンツを迅速に評価したい一般的なインターネット ユーザーにとっては、特に役に立つものではありません。そのような場合、検出は、出典ベースの検証ではなく、確率的でコンテンツ分析方法に依存します。私たちは、さまざまなニーズにさまざまなツールが必要であり、ディープフェイクに対する銀の弾丸はないことを認識する必要があります。

法的観点から、AI 生成または AI レプリケーション コンテンツにおける同意と所有権の取り扱いにおいて、管轄区域がどのように対応しているかについて、現在最大のギャップはどこにあると思いますか。

おお、どれくらいの時間が必要ですか。答えは、AI 生成またはレプリケーション コンテンツの意味によって異なります。問題は、AI 生成画像の家または猫、または人の顔または声のデジタル再現であるかどうかによって異なります。ディープフェイクとデジタル レプリカ、特に「デジタル クローニング」のトピックに焦点を当てて、質問に答えましょう。

同意について、中心的な問題は、ほとんどの契約 – 雇用契約またはプラットフォームの条件 – が、広範で漠然とした条項を含み、それらはコンテンツに対する広範な権利を付与します。これらは、同意の一種である「裏口の同意」と解釈できます。ユーザーは、クローニングのような使用を含むことを意味しますが、ほとんどの人はその解釈を強く否定するでしょう。これにより、法的解釈とユーザーの期待の間で重大なギャップが生じ、現在は企業に利益をもたらしていますが、規制は後追いです。

所有権については、デジタル クローンの所有者については、明確な法的答えはありません。なぜなら、既存の枠組みは、データ保護、著作権、パーソナリティ権などが、この技術のために設計されていないからです。今日、ほとんどの人は仕事で、雇用主またはクライアントの依頼と資金提供によりスキャンされ、クローニングされます。 そして、それらのエンティティは通常、資産に対して高いレベルの制御を期待します。これは理解できるものですが、問題があります。なぜなら、その資産はあなたの顔または声のデジタル模倣であり、あなたが言ったことのないことを言わせたり、あなたがしたことのないことをさせたりすることができるからです。

「あなたのクローンは誰が所有するのか」という質問は非常に重要ですが、現在、法律では答えられていません。

ボイス クローニング技術について密接に取り組んでいます。合成音声について、企業と個人の両方にとって、法的リスクが最も誤解されている点は何ですか。

法的コンプライアンスにおける最も誤解された問題は、企業の商業的利益とデジタル クローンの開発および搾取のバランスと、個人のプライバシーとデジタルな尊厳の権利の間のバランスです。この緊張は、知的財産、データ保護、プライバシーの複数の法的レジームにわたって存在し、それらはクローニングを根本的に異なる方法で解釈します。その結果、企業は、主要なリスクを無視するか、適切に航行するために重大なコストを負担することになります。そのため、責任あるコンプライアンスは、デフォルトではなく、より困難で高価なパスになります。

企業は、AI システムにおける同意アーキテクチャについて、特に類似性、アイデンティティ、トレーニング データの取り扱いについて、どのように考えるべきですか。

企業は、3 つの主要な機能を中心にシステムを設計する必要があります。まず、オンボーディング時に情報に基づいた、コンテキストに応じた同意を確保する必要があります。2 番目に、ユーザーがその同意を撤回し、一部またはすべてのデータを削除することを容易にする必要があります。これは、技術的には課題があり、しばしば見落とされるものですが、UK や EU の GDPR などの法律や同等の規制に従うために不可欠です。同意を維持することは、ビジネス モデルと一致するようにシステムを構築することを意味します。

同意は、グラニュラーでなければなりません。3 番目に、ユーザーは、個々のファイルのアクセス許可を管理し、類似性データを更新し、どのように使用されているかを理解できるツールが必要です。そのためには、透明性とコントロールが必要です。ユーザーは、デジタル クローンがどのように展開されているかを監視、レビュー、モデレートできるツールが必要です。そのような柔軟性はまだまれですが、競争上の優位性が増す場所です。

スタートアップと政府の両方にアドバイスする経験から、AI の構築と規制の間で最大の断絶はどこにあると思いますか。

AI の構築と規制の間の断絶は、根本的に異なる使命から来ています。政府は公共の利益のために規制しますが、AI 企業 (しばしばベンチャー キャピタルによって支援される) は、成長、収益、利益によって主に推進されます。優先順位は常に衝突するわけではありませんが、頻繁に異なる方向に引っ張られます。規制は、支援ではなく、制約と見なされることがあります。

これにより、構造的な緊張が生じます。規制当局とイノベーターは、異なるインセンティブ、価値観、そして言語で動いています。そのため、実践では調整が難しいです。ただし、公共の利益と一致するテック企業の新しい波を見始めていますが、それらはまだ例外であり、規模が大きいものではありません。

OpenOrigins は、暗号論的出典を使用してコンテンツの作成時に検証を行います。オリジン ファースト アプローチは、ポスト配布のセーフガードと比較してどれくらい重要ですか。

これは、上記の私の答えに戻ります。コンテンツの作成時に検証することは、配布または消費の時点で検証するよりもはるかに効果的です。コンテンツの作成時に検証することは、農場で育てられた食物を追跡することと同じです。食事を準備する方法を知るのではなく、鶏肉がどこで飼育され、どのように扱われ、供給チェーンを通じてどのように移動したかを知ることができます。そうすれば、食べているものを信頼できます。そうでない場合は、完成した料理を見て、それを推測することになります。オンラインの人間が作成したコンテンツと AI が生成したコンテンツを区別することにも同じことが当てはまります。出典のあるソースは検証可能な保証を提供しますが、ダウンストリームの検出は本質的に不確実で反応的です。

C2PA のような規格は、メディアの将来にどのような役割を果たすと思いますか。また、それらは単独でオンラインでの信頼を回復するのに十分ですか。

C2PA は歓迎される取り組みであり、OpenOrigins と同様のコンテンツの真正性のための運動をサポートしています。コンテンツの安全性とコンテンツの真正性のエコシステムの重要な部分です。C2PA は、コンテンツの真正性のための重要なツールですが、サイバーセキュリティのツールと同様に、銀の弾丸ではありません。

映画、音楽、ゲームなどの業界のクリエイターと才能にとって、今日、無許可のデジタル レプリカから自分自身を保護するために、どのような実用的なステップを取るべきですか。

アーティストは、2 つの異なるリスクに直面しています。彼らの作品 (音楽、画像、文章など) のレプリカと、彼らの類似性 (顔、声、体) のレプリカです。AI システムは、わずかな入力でこれらを高い忠実度で再現できます。実際的には、オンラインで共有するものについて、慎重に選択することから始めます。投稿されたコンテンツは、トレーニング データセットにスクレイプされ、使用される可能性があることを認識する必要があります。通常、明確な同意や可視性はありません。

そのリスクは、オンラインで活動するための基本的な現実です。しかし、より即時的で制御可能なリスクは、契約にあります。アーティストがコラボレーター、配給者、またはプラットフォームと締結する契約には、AI の使用、再使用、または再販売を許可する条項が含まれることがあります。コンテンツのトレーニング目的での使用については、明確な参加や下流の収益がありません。

アーティストにとって、これは契約のスクラッチが重要であることを意味します。彼らの作品と類似性がどのように使用されるか、ライセンスされるか、または再利用されるかを理解することが重要です。これは、創造的なプロセス自体と同じくらい重要です。現在の議論 (組合、業界団体、プラットフォーム全体で) は、バランスを修正し、クリエイターが制御と公平な補償を維持することを保証することです。

したがって、2 つの重要なアドバイスがあります。オンラインで共有するものについて慎重に選択し、AI クローンに関する条項を含む契約を読んでから署名してください。

3 から 5 年先を見て、デジタル コンテンツのすべてのピースが検証可能な出典を必要とするポイントに達すると思いますか。あるいは、信頼はプラットフォームや管轄区域に断片化されたままになりますか。

はいと言いたいですが、現実的にはそうではありません。5 年はテクノロジーの世界では長い期間ですが、ユーザーの行動や習慣を変えるには短い期間です。大多数の消費者は、コンテンツが検証された出典を伴うかどうかによって決定を下すことはありません。プラットフォームは、エンゲージメントを最適化する傾向があり、出典よりも優先されます。

これは、規制が介入することで変化する可能性があります。カリフォルニアのような場所では、ラベリングとモデレーションの要件が現れ始めていますが、世界規模で拡大するには時間がかかります。5 年ではなく、10 年程度かかるでしょう。

変化のもう 1 つの領域は、業界固有のものです。ジャーナリズム、金融、保険、ヘルスケアなどの業界は、信頼がその運営の基本であるため、出典と認証を必要とすることがあります。

最後に、消費者は短期的には出典情報について心配しない可能性がありますが、コンテンツの品質や情報の品質について心配するでしょう。AI 生成コンテンツがあまりにも均一化され、または「平凡」になると、聴衆は人間が作成したコンテンツをより明示的に重視し始めるかもしれません。那は市場のセグメント化につながり、スケールと AI 生成コンテンツを優先するプラットフォームと、真実性、出典、人間主導の高信頼性コンテンツをカーセントするプラットフォームが存在する可能性があります。しかし、その変化は未知のままです。

素晴らしい答えをありがとう。さらに詳しく知りたい読者は、OpenOrigins を訪問してください。

アントワーヌは、Unite.AIの創設パートナーであり、ビジョナリーなリーダーです。彼は、AIとロボティクスの未来を形作り、推進するという、揺るぎない情熱に突き動かされています。シリアルエントレプレナーである彼は、AIは電気と同じように社会に大きな変革をもたらすと信じており、破壊的な技術やAGIの潜在能力について熱く語ることがよくあります。

As a futurist、彼は、これらのイノベーションが私たちの世界をどのように形作るかを探求することに尽力しています。さらに、彼は、Securities.ioの創設者であり、未来を再定義し、全セクターを再構築する最先端技術への投資に焦点を当てたプラットフォームです。