ソートリーダー
2024年、ディープフェイクが主流になる。企業が自己保護する方法

少なくとも2016年の選挙以来、デジタル情報操作に関する懸念が広まり、専門家はディープフェイクについて警鐘を鳴らしてきた。ディープフェイク技術の影響は、今でも恐ろしいものである。ハイパーリアリスティックな合成メディアの無制限な拡散は、政治家から一般人まで、誰に対しても脅威をもたらす。既に不信感が蔓延している状況では、ディープフェイクは炎をさらに煽るだけである。
しかし、実際のところ、私たちの懸念は早すぎた。ディープフェイクを作るために必要な技術的知識と、しばしば質の悪いディープフェイクの品質により、過去2つの大統領選挙周期では、ディープフェイクは最小限の懸念事項に留まった。
しかし、すべてが変化する——変化しつつある。過去2年間で、生成的なAI技術が主流になり、平均的な消費者がディープフェイクを作成するプロセスを急激に簡素化した。これらの革新は、ディープフェイクの品質を大幅に高め、盲目的なテストでは、ほとんどの人が改ざんされたビデオと本物の違いを区別できないほどになった。
今年は特に、対策を講じない場合、ディープフェイク技術が社会に与える影響がどのようなものになるかを示唆する兆候が見え始めた。例えば、先年、AI生成の写真が、フランシスコ教皇が異常にスタイリッシュなコートを着ているように見え、多くの人に本物であると受け取られた。表面的に見ると、これは無害な楽しみのように思えるかもしれないが、ディープフェイクの危険性と、誤った情報が広がり始めたらそれを止めるのがどれほど難しいかを示している。将来、より面白くない——そしてより危険な——この種のウイルス的な偽造の例が見られるだろう。
この理由から、メディア、金融、政府、ソーシャルメディアプラットフォームなど、すべての種類の組織が、ディープフェイクの検出とコンテンツの真実性の検証に対して積極的な姿勢をとることが不可欠である。安全対策による信頼の文化を今、現実の共通の理解を洗い流すディープフェイクの波が来る前に確立する必要がある。
ディープフェイクの脅威を理解する
組織がディープフェイクの増加に対抗するために何ができるかを説明する前に、保護ツールが必要な理由について詳しく説明する価値がある。通常、ディープフェイクについて心配する人々は、その政治や社会的信頼への潜在的な影響について言及する。ディープフェイクの潜在的な結果は非常に重要であり、ディープフェイクについての議論ではそれらを無視してはならない。しかし、ディープフェイク技術の台頭は、米国の経済のさまざまな分野に潜在的に深刻な影響を及ぼす。
例えば、保険を考えてみよう。現在、米国の年間保険詐欺は3086億ドルにのぼる——これは、業界全体の約4分の1の規模である。同時に、ほとんどの保険会社のバックエンド操作は、70%の標準的な請求が2025年までにタッチレスになることが予想されるため、自動化が進んでいる。つまり、決定は人間の介入が最小限になる——フロントエンドではセルフサービス、バックエンドではAIによる自動化である。
皮肉なことに、この自動化の増加を可能にした技術——つまり、機械学習と人工知能——は、悪意のある行為者によってそれを利用されることを保証した。Dall-E、Midjourney、Stable Diffusionなどの生成的なAIプログラムを使用して、たとえば車がより損傷しているように見せることは、現在誰でも簡単にできる。すでに、その目的のためにDude Your Car!のようなアプリが存在し、ユーザーは車の写真に人工的な凹みを作成できる。
同様のことが、公式文書にも当てはまる。公式文書は、請求書、保険の査定、署名などが簡単に操作されたり、全体的に改ざんされたりできる。保険会社にとってだけでなく、経済全体にとって、これは問題である。金融機関にとっては、さまざまな文書の真実性を検証する必要がある。小売業者にとっては、製品が不良品で届いたと主張する顧客から、改ざんされた画像が添付される可能性がある。
企業は、この程度の不確実性で運営することはできない。ある程度の詐欺は避けられないかもしれないが、ディープフェイクの場合、詐欺の端にある詐欺ではなく、企業が真実と虚構を区別する明確な方法を持たない、認識論的な災害の可能性について話している。企業は、この混乱により数十億ドルを失うことになる。
火を以て火を制す:AIがどのように助けることができるか
では、ディープフェイクに対抗するために何ができるか。驚くことではないが、答えは、ディープフェイクを促進する同じ技術にある。ディープフェイクの蔓延を阻止するには、火を以て火を制す必要がある。AIはディープフェイクを作成するのを助ける——しかし、幸いなことに、AIは自動的に、かつ大規模にディープフェイクを識別するのを助けることもできる。
適切なAIツールを使用して、企業は写真、ビデオ、または文書が改ざんされたかどうかを自動的に判断できる。数多くのモデルを偽物の識別に当てて、AIは企業に、特定の写真またはビデオが疑わしいかどうかを自動的に通知できる。企業がすでに日常業務の自動化に使用しているツールと同様に、これらのツールは、過負荷のスタッフに負担をかけたり、重要なプロジェクトから時間を奪ったりすることなく、バックグラウンドで実行できる。
写真が改ざんされた可能性があると識別された場合、人間のスタッフはその問題を直接評価し、AIによって提供された情報を活用できる。ディープスキャン分析を使用して、企業は、写真がなぜ改ざんされたと考えられるかを指摘できる——たとえば、手動で変更されたメタデータ、ウェブ上の同一の画像の存在、写真の不規則性など。
これは、過去数年間にわたって見られた生成的なAI技術の驚くべき進歩を軽視するものではない。ディープフェイクの有用性と生産的な応用は、業界全体で実際に存在する。ただし、この新しい技術の威力——そしてその簡単さ——は、組織を操作しようとする個人や、社会的混乱を生み出そうとする個人によって悪用されることをほぼ保証する。
組織は、両方の世界の最善を得ることができる——AIの生産性の利点と、ディープフェイクの欠点のないもの。ただし、これを実現するには、新たな警戒性が必要である——特に、生成的なAIの出力が、より説得力があり、詳細で、リアルなものになっているという事実がある。組織がこの問題に注目するのが早いほど、自動化された世界の利点を享受することができる。












