「フェイクニュース」を覚えていますか?この用語は、すでに非常に広範囲に使用され(そして乱用され)ているため、もはや何を指しているのかを思い出すのが難しいほどです。しかし、この概念には非常に具体的な起源があります。10年前、ジャーナリストたちは、政客や有名人についての誤った、そして往々にして信じられない主張を投げ出すと呼ばれる「ニュース」サイトの増加について警鐘を鳴らしました。多くの人々は、これらのサイトが非合法であることをすぐに認識できました。しかし、多くの人々はこれらのサイトが非合法であることを認識するための批判的ツールを持っていませんでした。結果として、現在インターネットを飲み込もうとしている認識論的危機の最初の兆候が生まれました。これは、ディープフェイクの登場で最も恐ろしい形で現れています。さほど優れたディープフェイクと比較すると、過去の「フェイクニュース」サイトはおとなしいものに思えます。さらに悪いことに、メディアの識別能力が比較的高いと考える人々でも、欺かれる危険があります。合成メディアは、ディープラーニングアルゴリズムとジェネレーティブAIを使用して作成されており、社会の基盤を混乱させる可能性があります。デロイトによると、今年だけで、合成メディアは、詐欺的な取引やその他の詐欺行為によって、企業に250万ドル以上の損失をもたらす可能性があります。一方、世界経済フォーラムはディープフェイクを「AIの最も心配される使用方法の一つ」と呼んでおり、「アジェンダに基づくリアルタイムAIチャットボットとアバター」が、超個別化された(そして超効果的な)操作を促進する可能性があることを指摘しています。世界経済フォーラムが提案するこの問題への対応は、妥当なものです。彼らは「ゼロトラストマインド」を主張しています。これは、デジタルメディアとの毎回の遭遇に一定の懐疑心をもたらします。私たちが今後、特に没入型オンライン環境で、真正と合成を区別したいのであれば、このようなマインドセットはますます重要になります。ディープフェイク危機に対処するための2つのアプローチ合成メディアによって生み出される、広範囲にわたるデジタル情報操作を打ち負かすには、私の意見では、2つの異なるアプローチが必要です。最初のアプローチは、検証です。つまり、日常のインターネットユーザーが、見ているビデオが真正であるかどうかを簡単に判断できるようにすることです。そうしたツールは、保険業界などで、悪意のある行為者が改ざんされたビデオ、写真、文書を使用して虚偽の請求を行う可能性があるため、すでに広く使用されています。これらのツールを民主化すること(無料で簡単にアクセスできるようにすること)は、この戦いの第一歩であり、すでにこの分野で重大な進展が見られます。2番目のステップは、技術的な性質ではなく、より挑戦的なものです。つまり、認識と批判的思考スキルの向上です。元の「フェイクニュース」スキャンダルの後、2015年に、非営利団体はメディア識別プログラムを作成し、ベストプラクティスを広め、地元の市民機関と協力して、日常の市民が虚偽を識別できるようにしました。もちろん、古い「フェイクニュース」は最先端のディープフェイクに比べれば子供の遊びです。したがって、私たちはこの分野での努力を再度行い、すべてのレベルで教育に投資する必要があります。高度なディープフェイクには高度な批判的思考が必要もちろん、これらの教育イニシアチブは、虚偽情報がテキストベースの場合には、実施するのが比較的容易でした。フェイクニュースサイトでは、詐欺の兆候は明らかでした。例えば、デザインが貧弱で、タイポが頻繁に出ており、出典が奇妙でした。ディープフェイクの場合、兆候ははるかに微妙で、そして往々にして最初の目で気付くことはできません。したがって、すべての年代のインターネットユーザーは、ディープフェイクの指標を注意深く調べるために、自分自身を再訓練する必要があります。つまり、ビデオの場合、現実に似ていないぼやけた領域や影、自然に思えない顔の動きや表情、完璧すぎる肌の色、服や動きのパターンの一貫性のない点、唇の同期エラーなどに注意を払う必要があります。オーディオの場合、 demasiに綺麗な音声(または明らかにデジタル化された音声)、人間の感情のトーンの欠如、奇妙な話し方、または不自然なフレーズに注意する必要があります。短期的には、このような自己訓練は非常に有用です。自分自身に、再三再四、これは疑わしい? と問いかけることで、私たちはディープフェイクを検出する能力を研ぎ澄ますだけでなく、一般的な批判的思考スキルも磨きます。ただし、私たちは、外部からの支援なしに事実と虚偽を区別することができないポイントに急速に近づいています。視覚的な兆候(上記で言及した不規則性)は技術的にスムーズにされ、全く架空のクリップは真正のものと区別できなくなります。私たちが残るのは、状況的直感——ある政客や有名人が本当にそう言うでしょうか?このビデオの内容は妥当ですか? ——という質問を自分自身に問う能力です。この文脈において、AI検出プラットフォームは非常に重要になります。裸眼ではディープフェイクを検出することが不可能になるので、これらのプラットフォームは現実の最終的な判断者——認識論的深淵に対するガードレール——として機能できます。ビデオが現実に似ているが、どこか疑わしい——これは将来的にますます頻繁に起こること——場合、これらのプラットフォームは私たちを事実に基づいたものに維持することで、現在見ているものの基礎的な真実性を確認できます。最終的に、このような強力な技術の場合、私たちを救うことができるのはAI自身です。私たちは、火を以て火を攻める——つまり、技術の最悪の乱用を根絶するために良いAIを使用する——必要があります。実際、こうしたスキルの習得は、必ずしも悲観的または否定的なプロセスである必要はありません。ゼロトラストマインドセットを養うことは、批判的思考、直感、認識を研ぎ澄ます機会とみなすことができます。自分自身に、再三再四、これは妥当ですか? これは疑わしい? などの重要な質問を問いかけることで、世界に対して、そして日常生活において、より批判的で経験豊かな人になることができます。ディープフェイク時代の銀の弾丸は、これです。私たちは自分で考え、より経験豊かな人になることを強いられている——これは、決して悪いことではありません。


少なくとも2016年の選挙以来、デジタル情報操作に関する懸念が一般の意識に浮かび上がってから、専門家たちはディープフェイクについて警鐘を鳴らしてきました。この技術の影響は、今でも恐ろしいものです。超現実的な合成メディアの無制限な普及は、政治家から日常の人々まで、誰にでも脅威をもたらします。既に広がっている不信感のある環境では、ディープフェイクはさらに火を煽るだけです。しかし、実際は、私たちの懸念は時期尚早だったようです。ディープフェイクを作るために必要な技術的知識と、しばしば質の悪い品質のため、少なくとも過去2回の大統領選挙では、ディープフェイクは最小限の懸念事項でした。しかし、すべてが変わりつつあります。過去2年で、生成的なAI技術が本流になり、平均的な消費者がディープフェイクを作るプロセスを根本的に簡素化しました。これらの革新は、ディープフェイクの品質を大幅に向上させました。盲目的なテストでは、ほとんどの人が改ざんされたビデオと本物の違いを区別することができません。今年は特に、対策を講じない場合、この技術が社会に与える影響の兆候を見始めています。例えば、昨年、AI生成の写真が、フランシスコ法王が通常と異なるスタイリッシュなコートを着ているように見えましたが、多くの人々はそれを本物だと思いました。表面的に見ると、これは無害な冗談のようですが、ディープフェイクの危険性と、誤情報が広がり始めたらそれを止めるのがどれほど難しいかを明らかにしています。将来、より面白くない、より危険なこのようなウイルス的なフェイクの例を見つけることになるでしょう。このため、メディア、金融、政府、ソーシャルメディアプラットフォームなど、すべての種類の組織が、ディープフェイクの検出とコンテンツの真実性の検証に対して積極的な姿勢をとることが不可欠です。今、現実の共有理解を洗い流すディープフェイクの波が来る前に、安全対策による信頼の文化を確立する必要があります。ディープフェイクの脅威を理解する組織がディープフェイクの増加に対抗するために何ができるかを説明する前に、保護ツールがなぜ必要かを詳しく説明しましょう。通常、ディープフェイクに懸念を持つ人々は、その政治と社会的信頼への潜在的な影響を引用します。これらの潜在的な結果は非常に重要であり、ディープフェイクについて話す際には決して無視されてはいけません。しかし、実際には、この技術の台頭は、米国の経済の複数のセクターに潜在的に深刻な影響を及ぼします。例えば、保険を取り上げましょう。現在、米国の年間保険詐欺は3086億ドルに達し、業界全体の約4分の1の規模です。同時に、ほとんどの保険会社のバックエンド操作は、70%の標準的な請求が2025年までにタッチレスになる予定であると予測され、自動化されています。つまり、決定は人間の介入が最小限になるよう、フロントエンドではセルフサービス、バックエンドではAIによる自動化で行われています。皮肉にも、自動化の増加を可能にした技術、つまり機械学習と人工知能は、悪意のある人物によってその自動化が悪用されることを保証しました。現在、Dall-E、Midjourney、Stable Diffusionなどの生成AIプログラムを使用して、たとえば車がより損傷しているように見せることは、誰でも簡単にできるようになりました。すでに、その目的のためにDude Your Car!のようなアプリが存在し、ユーザーは車両の写真に人工的な凹みを生成できます。同様に、公式文書も簡単に操作できます。請求書、保険の査定、署名などが全体的に調整されたり、捏造されたりする可能性があります。これは、保険会社だけにとどまらず、経済全体の問題です。金融機関にとっては、幅広い文書の真実性を検証する問題です。小売業者にとっては、製品が不良品で届いたと主張する苦情に、改ざんされた画像が添付される可能性があります。企業は、この程度の不確実性で運営することはできません。ある程度の詐欺は避けられないかもしれませんが、ディープフェイクの場合、詐欺の端にある詐欺ではなく、企業が真実と虚構を区別する明確な方法を持たない、認識論的災害の可能性について話しています。企業はこの混乱により数十億ドルを失うことになります。火を以て火を制す:AIがどのように助けるかでは、ディープフェイクに対抗するために何ができるでしょうか。驚くことなく、答えはディープフェイクを促進する同じ技術にあります。この悪性の蔓延を勢いがつく前に止めるのであれば、火を以て火を制す必要があります。AIはディープフェイクを生成するのを助けることができますが、幸いなことに、自動的に、そして大規模にそれらを識別するのにも助けます。適切なAIツールを使用して、企業は特定の写真、ビデオ、または文書が改ざんされたかどうかを自動的に判断できます。数多くのモデルをフェイクの識別に当てて、AIは企業に特定の写真やビデオが疑わしいかどうかを自動的に通知できます。既に日常業務の自動化に使用されているツールと同様に、これらのツールは、過負荷のスタッフに負担をかけたり、重要なプロジェクトから時間を奪ったりすることなく、バックグラウンドで実行できます。写真が改ざんされた可能性があると識別された場合、人間のスタッフはそれを直接評価し、AIが提供する情報を活用できます。ディープスキャン分析を使用して、企業は写真がなぜ改ざんされたと考えられるのかを示すことができます。手動で改ざんされたメタデータ、ウェブ上の同一の画像、写真の不規則性などを指摘します。これは、過去数年間にわたって見られた生成的なAI技術の驚異的な進歩を軽視するものではありません。これらの進歩は、業界全体で有用で生産的な応用を持っています。しかし、この新興技術の強力さ、そしてその簡素さは、組織を操作しようとする人物によってその悪用がほぼ保証されています。企業は、ディープフェイクの悪影響なしにAIの生産性の利点を享受することができます。しかし、こうした利点を得るには、特に生成的なAIの出力が日々により説得力があり、詳細でリアルになるという事実を考慮して、新たな警戒心が必要です。企業がこの問題に注目するのが早いほど、自動化された世界の利点を全て享受することができるでしょう。