スタブ ファクトチェッカーのようにディープフェイク動画を特定する方法 - Unite.AI
私達と接続

Artificial Intelligence

ファクトチェッカーのようにディープフェイク動画を特定する方法

mm

公開済み

 on

ディープフェイクは、個人が人の肖像を別の人の肖像に置き換える合成メディアです。これらはオンラインでますます一般的になり、世界中に誤った情報を広めることがよくあります。無害に見えるものもあれば、悪意のあるものもあるため、個人がデジタル的に作成された虚偽のコンテンツから真実を識別することが重要になります。

残念ながら、誰もがディープフェイクビデオを識別するための最先端のソフトウェアにアクセスできるわけではありません。ここ'ファクトチェッカーがビデオを検査してその正当性を判断する方法と、ファクトチェッカーの戦略を自分で利用する方法を見てみましょう。

1. コンテキストを調べる

ビデオが表示されるコンテキストを精査することが重要です。これは、背景となるストーリー、設定、そしてビデオの出来事が真実であると知っている内容と一致するかどうかを確認することを意味します。ディープフェイクはしばしばここをすり抜け、よく見ると現実世界の事実やタイムラインに当てはまらないコンテンツを提示します。

一例としては、ウクライナのヴォロディミル・ゼレンスキー大統領のディープフェイクが挙げられる。 2022年XNUMX月には、 ディープフェイク動画がソーシャルメディア上に流出 そこではゼレンスキー大統領がウクライナ軍に武器を捨ててロシア軍に降伏するよう促しているようだった。 

詳しく調べると、いくつかの文脈上の手がかりがビデオの不信性を浮き彫りにしました。ウクライナ政府の公式チャンネルとゼレンスキー氏自身はこのメッセージを共有していない。また、タイミングと状況は、ウクライナの立場と軍事戦略に関する既知の事実と一致しなかった。このビデオの作成は、ウクライナの抵抗運動の士気をくじき、ウクライナを支援する国際社会に混乱を広げることを目的としていた。

2.ソースを確認します

オンラインでビデオを見つけたら、そのソースを確認してください。ハッカーがビデオを利用してサイバー攻撃を仕掛ける可能性があるため、ビデオの出所を理解することは非常に重要です。最近、 サイバーセキュリティ専門家の 75% サイバー攻撃の急増を報告しており、85% が悪意のある個人による生成 AI の使用を指摘しています。 

これはディープフェイク動画の台頭と関係があり、専門家は AI 生成コンテンツによって引き起こされるセキュリティ インシデントに対処することが増えています。ビデオの発信元を探してソースを確認します。疑わしいソースから発信されたビデオは、より大規模なサイバー攻撃戦略の一部である可能性があります。 

信頼できる情報源はディープフェイク動画を拡散する可能性が低いため、信頼できる情報を入手するためのより安全な選択肢になります。常に信頼できる報道機関や公式 Web サイトとビデオを照合して、視聴しているものが本物であることを確認してください。

3. 顔の表情の矛盾を探す

ディープフェイクの明らかな兆候の 1 つは、顔の表情に不一致があることです。ディープフェイク技術は進歩していますが、人が話したり感情を表現したりするときに自然に起こる微妙で複雑な動きを正確に模倣するのは難しいことがよくあります。次のような不一致に注目することで、これらを見つけることができます。

  • 不自然な点滅: 人間は規則的で自然なパターンでまばたきをします。ただし、ディープフェイクではまばたきが過小表現されたり、過剰に表現されたりする可能性があります。たとえば、ディープフェイクでは、人物がまばたきをせずに長時間話したり、まばたきが速すぎたりする様子を映すことができます。
  • リップシンクエラー: 誰かがビデオで話すとき、唇の動きがずれている可能性があります。唇が音声と一致しているかどうかを注意深く観察してください。一部のディープフェイクでは、不一致は微妙ですが、よく見ると検出できます。
  • 顔の表情と感情: 人間の本当の感情は複雑で、顔の動きに反映されます。ディープフェイクは多くの場合、これを捉えることができず、硬直した、誇張された、または完全に一致していない表現につながります。たとえば、ディープフェイクビデオには、ニュアンスが少ない笑顔や眉をひそめている人物が映っていたり、感情的な反応が会話の文脈と一致していない可能性があります。

4. 音声を分析する

音声は、ビデオが本物か偽物かを判断する手がかりにもなります。ディープフェイク技術は音声を模倣しようとしますが、不一致により音声が分からなくなることがよくあります。たとえば、声の質や特徴に注目してください。ディープフェイクのスピーチはロボットのように聞こえたり、平板に聞こえたり、実際の人間が自然に示すような感情の抑揚が欠けている場合があります。

周囲の騒音や音質も手がかりとなる可能性があります。突然の変化は、オーディオの一部が変更されたり、つなぎ合わされたりしたことを示唆している可能性があります。本物のビデオは通常、全体を通して一貫性を保っています。

5. 照明と影を調査する

照明と影は、ビデオの信頼性を明らかにする上で大きな役割を果たします。ディープフェイク技術は、光が人間を含む現実世界の物体とどのように相互作用するかを正確に再現するのに苦労することがよくあります。照明と影に細心の注意を払うと、ディープフェイクであるかどうかを示すさまざまなアイテムを見つけるのに役立ちます。

本物のビデオでは、被写体の照明と周囲の環境が一貫している必要があります。ディープフェイク動画では、顔が背景とは異なる照明で照らされるなど、不規則な映像が表示される場合があります。ビデオの方向や光源が意味をなさない場合は、操作の兆候である可能性があります。

次に、影はシーン内の光源に従って動作する必要があります。ディープフェイクでは、影が間違った角度で表示されたり、他のオブジェクトと一致しない場合があります。影のサイズ、方向、および予期される影の有無の異常により、全体的なアイデアが得られます。

6. 感情操作がないかチェックする

ディープフェイクは、説得力のある虚偽を作成するだけではなく、感情を操作し、反応を引き起こすようにディープフェイクを設計することがよくあります。このようなコンテンツを特定する重要な点は、そのコンテンツが合理的な判断を鈍らせるような感情的な反応を引き起こすことを目的としているかどうかを評価することです。

たとえば、AI が生成した国防総省の爆弾画像が Twitter X 上で拡散した事件を考えてみましょう。完全に捏造されたものであるにもかかわらず、画像の憂慮すべき性質により画像が急速に拡散し、広範囲にわたるパニックを引き起こしました。結果として、 500億ドルの損失 株式市場で事件が起きた。

ディープフェイク動画は、特に AI が関与している場合、同様のパニックを引き起こす可能性があります。これらのビデオを評価する際には、次のことを自問してください。

  • コンテンツは恐怖、怒り、ショックなどの強い感情的反応を引き起こそうとしていますか?本物のニュースソースは、扇動するのではなく、情報を提供することを目的としています。
  • 内容は現在の出来事や既知の事実と一致していますか?感情的な操作は、多くの場合、視聴者を合理的な分析から切り離すことに依存します。
  • 信頼できる情報源が同じ話を報告していますか?信頼できる報道機関からの裏付けがない場合は、感情を揺さぶるコンテンツが捏造されたことを示している可能性があります。 

7. ディープフェイク検出ツールを活用する

ディープフェイクがより洗練されるにつれ、人間の観察だけに頼ってディープフェイクを特定するのは困難になる可能性があります。幸いなことに、高度なテクノロジーを使用して本物と偽物を区別するディープフェイク検出ツールが利用可能です。 

これらのツールは、肉眼では見えない不一致や異常がないかビデオを分析できます。音声透かしを 1 つの方法として利用することで、AI と機械学習を活用しています。これらのテクノロジー 透かしの位置を認識するように訓練されている オーディオが改ざんされているかどうかを判断します。

Microsoft は、ディープフェイクの可能性を示す信頼スコアを提供する Video Authenticator と呼ばれるツールを開発しました。同様に、新興企業や学術機関は、進化するディープフェイクに追いつくためにテクノロジーを開発し、改良し続けています。

ディープフェイクの検出に成功する

テクノロジーには光と影の側面があり、常に進化しているため、オンラインで目にするものに懐疑的になることが重要です。ディープフェイクの疑いがあるものに遭遇した場合は、自分の感覚と利用可能なツールを活用してください。さらに、その発信元を必ず確認してください。最新のディープフェイク ニュースを常に把握している限り、フェイク メディアの時代に真実を守るためには、あなたの勤勉さが鍵となります。

ザック・アモスは、人工知能を専門とするテクノロジー ライターです。 彼は、次の機能編集者でもあります。 リハックでは、彼の作品をさらに読むことができます。