人工知能
ディープフェイクとは何か?

ディープフェイクの作成が容易になり、より広範になるにつれ、それらへの注目も高まっています。ディープフェイクは、AI倫理、誤情報、情報とインターネットの公開性、規制に関する議論の焦点となっています。ディープフェイクについて情報を得て、直感的に理解しておくことは有益です。この記事では、ディープフェイクの定義を明確にし、その使用例を検討し、ディープフェイクの検出方法について議論し、社会への影響を考察します。
ディープフェイクとは?
ディープフェイクについてさらに議論を進める前に、「ディープフェイク」が実際に何であるかを明確にしておくと役立ちます。ディープフェイクという用語についてはかなりの混乱があり、しばしば、本物のディープフェイクかどうかに関わらず、あらゆる偽造メディアに誤って適用されることがあります。ディープフェイクとして認められるためには、問題の偽造メディアが機械学習システム、具体的には深層ニューラルネットワークによって生成されなければなりません。 ディープフェイクの重要な要素は機械学習です。機械学習により、コンピューターが比較的迅速かつ容易にビデオやオーディオを自動生成することが可能になりました。深層ニューラルネットワークは、対象となる環境条件下で人がどのように見え、動くかをネットワークが学習するために、実在する人物の映像で訓練されます。訓練されたネットワークは、別の人物の画像に適用され、追加のコンピューターグラフィックス技術で補強されて、新しい人物を元の映像と合成します。エンコーダーアルゴリズムは、元の顔と対象の顔の類似性を判断するために使用されます。顔の共通の特徴が分離されると、デコーダーと呼ばれる2番目のAIアルゴリズムが使用されます。デコーダーは、エンコード(圧縮)された画像を調べ、元の画像の特徴に基づいてそれらを再構築します。2つのデコーダーが使用され、1つは元の被写体の顔に、もう1つは対象人物の顔に使用されます。顔の交換を行うために、人物Xの画像で訓練されたデコーダーに人物Yの画像が入力されます。その結果、人物Yの顔が人物Xの表情と向きの上に再構築されます。 現在、ディープフェイクを作成するにはかなりの時間がかかります。偽造の作成者は、モデルのパラメータを手動で調整するのに長い時間を費やさなければなりません。最適でないパラメータは、目立つ不完全さや画像の不具合を引き起こし、偽物の正体を露呈させてしまうからです。 ほとんどのディープフェイクは、生成的敵対ネットワーク(GAN)と呼ばれる一種のニューラルネットワークで作られているとよく考えられていますが、現在作成されている多くの(おそらくほとんどの)ディープフェイクはGANに依存していません。GANは初期のディープフェイク作成で顕著な役割を果たしましたが、SUNY BuffaloのSiwei Lyuによれば、ほとんどのディープフェイク動画は別の方法で作成されているとのことです。 GANを訓練するには不釣り合いに大量の訓練データが必要であり、GANは他の画像生成技術と比べて画像をレンダリングするのにずっと長くかかることがよくあります。また、GANはフレーム間の一貫性を維持するのが難しいため、動画よりも静止画像の生成に向いています。ディープフェイクを作成するには、エンコーダーと複数のデコーダーを使用する方がはるかに一般的です。
ディープフェイクは何に使われるのか?
オンラインで見つかるディープフェイクの多くは、ポルノ的な性質のものです。AI企業Deeptraceによる調査によると、2019年9月に採取された約15,000本のディープフェイク動画のサンプルにおいて、約95%がポルノ的な性質のものでした。この事実の憂慮すべき含意は、技術の使用が容易になるにつれ、偽のリベンジポルノの事件が増加する可能性があるということです。 しかし、すべてのディープフェイクがポルノ的な性質というわけではありません。ディープフェイク技術にはより正当な用途もあります。オーディオディープフェイク技術は、病気や怪我で声帯が損傷したり失われたりした後でも、人々が通常の声で放送できるようにするのに役立つ可能性があります。ディープフェイクは、敏感で潜在的に危険な状況にある人々の顔を隠しながら、その唇や表情を読み取れるようにするためにも使用できます。ディープフェイク技術は、外国語映画の吹き替えの改善、古く傷んだメディアの修復支援、さらには新しいスタイルのアートの創造に利用される可能性があります。
動画以外のディープフェイク
ほとんどの人は「ディープフェイク」という用語を聞くと偽の動画を思い浮かべますが、偽の動画はディープフェイク技術で生成される偽造メディアの唯一の種類ではありません。ディープフェイク技術は、写真やオーディオの偽造物を作成するためにも使用されます。前述のように、GANは偽の画像を生成するためによく使用されます。ディープフェイクアルゴリズムで生成されたプロフィール画像を持つ、偽のLinkedInやFacebookプロフィールが多数存在したと考えられています。 オーディオディープフェイクを作成することも可能です。深層ニューラルネットワークは、有名人や政治家を含むさまざまな人々の声のクローン/ボイススキンを生成するように訓練されます。オーディオディープフェイクの有名な例の一つは、AI企業Dessaが、非AIアルゴリズムによってサポートされたAIモデルを利用して、ポッドキャストホストのJoe Roganの声を再現したときです。
ディープフェイクの見分け方
ディープフェイクがますます高度になるにつれ、本物のメディアと区別するのはますます難しくなっていきます。現在、人々がビデオがディープフェイクの可能性があるかどうかを判断するために探せるいくつかの兆候があります。例えば、唇の動きと音声の同期が悪い、不自然な動き、顔の輪郭周辺のちらつき、髪、歯、反射などの細部の歪みなどです。ディープフェイクのその他の潜在的な兆候には、同じ動画内の低品質な部分や、不規則なまばたきなどがあります。 これらの兆候は現時点でディープフェイクを見分けるのに役立つかもしれませんが、ディープフェイク技術が向上するにつれ、信頼できるディープフェイク検出の唯一の選択肢は、偽物と本物のメディアを区別するように訓練された他の種類のAIになるかもしれません。 多くの大規模テクノロジー企業を含む人工知能企業は、ディープフェイクを検出する方法を研究しています。昨年12月には、Amazon、Facebook、Microsoftという3つのテックジャイアントが支援するディープフェイク検出チャレンジが開始されました。世界中の研究チームがディープフェイクを検出する方法に取り組み、最高の検出方法を開発するために競い合いました。GoogleとJigsawの共同研究者グループのような他の研究者グループは、改変された動画を検出できる一種の「顔フォレンジック」に取り組んでおり、データセットをオープンソース化し、他の人々がディープフェイク検出方法を開発することを奨励しています。前述のDessaは、ディープフェイク検出技術の改良に取り組み、検出モデルが、Googleが提供したオープンソースデータセットのような事前に構成された訓練およびテストデータセットだけでなく、実際のインターネット上で見つかるディープフェイク動画でも機能することを確保しようとしています。 ディープフェイクの拡散に対処するために調査されている他の戦略もあります。例えば、ビデオが他の情報源と一致しているかを確認することは一つの戦略です。イベントのビデオが他の角度から撮影された可能性がないか検索したり、ビデオの背景の詳細(天候パターンや場所など)に矛盾がないかを確認したりできます。これを超えて、ブロックチェーンのオンライン台帳システムは、ビデオが最初に作成された時にそれを登録し、元のオーディオと画像を保持することで、派生ビデオが常に改ざんされていないか確認できるようにすることができます。 最終的に、ディープフェイクを検出する信頼できる方法が作成され、それらの検出方法がディープフェイク技術の最新の進歩に追いつくことが重要です。ディープフェイクの影響が正確にどのようなものになるかを知ることは難しいですが、ディープフェイク(および他の形態の偽造メディア)を検出する信頼できる方法がない場合、誤情報が蔓延し、人々の社会や制度への信頼を損なう可能性があります。
ディープフェイクの影響
ディープフェイクが抑制されずに拡散することを許すことの危険性は何でしょうか? 現在、ディープフェイクが引き起こす最大の問題の一つは、人々の顔をポルノ動画や画像と合成して作られる、同意のないポルノです。AI倫理学者は、ディープフェイクが偽のリベンジポルノの作成により多く利用されるようになることを懸念しています。これに加えて、ディープフェイクは、人々を論争の的となるような状況や不利な状況に置くために使用される可能性があるため、ほぼ誰のいじめや評判毀損にも使用される可能性があります。 企業やサイバーセキュリティの専門家は、ディープフェイクを利用した詐欺、不正、恐喝の促進について懸念を表明しています。伝えられるところでは、ディープフェイク音声が従業員を説得して詐欺師にお金を振り込ませるために使用されたことがあるとされています。 ディープフェイクは、上記に挙げたもの以上の有害な影響をもたらす可能性があります。ディープフェイクは、人々のメディア全般への信頼を損ない、本物のニュースと偽のニュースを区別することを困難にする可能性があります。ウェブ上の多くの動画が偽物であれば、政府、企業、その他の団体が正当な論争や非倫理的な行為に疑念を投げかけることが容易になります。 政府に関して言えば、ディープフェイクは民主主義の運営に対する脅威さえもたらす可能性があります。民主主義には、市民が信頼できる情報に基づいて政治家について十分な情報を得た上で判断を下すことが必要です。誤情報は民主的なプロセスを弱体化させます。例えば、ガボンの大統領、アリ・ボンゴは、国民を安心させようとするビデオに登場しました。大統領は長期間体調不良であると見られており、おそらく偽物のビデオへの突然の登場がクーデター未遂を引き起こしました。ドナルド・トランプ大統領は、女性の性器をつかむことを自慢する自身のオーディオ録音を「ロッカールームでの会話」と表現しながらも、偽物であると主張しました。アンドルー王子も、Emily Maitilisの弁護士が提供した画像は偽物であると主張しましたが、弁護士はその真正性を主張しました。 最終的に、ディープフェイク技術には正当な用途がありますが、その技術の悪用から多くの潜在的な害が生じる可能性があります。そのため、メディアの真正性を判断する方法を作成し維持することが極めて重要です。








