ソートリーダー
私たちをAI生成のディスインフォメーションから守るのは誰か?

ジェネレーティブAIは、1年未満でゼロから百に到達しました。初期段階ではありますが、ビジネスを変革する潜在力を示しています。これについては、みんなが同意できるでしょう。ただし、ジェネレーティブAIがもたらす危険をどのようにして制限するかについては、意見が分かれます。
明確に述べると、私はイノベーションの賛成者であり、恐怖を煽る者ではありません。しかし、最近の誤情報の増加—主に論争の的になっている問題についての周りの分極を狙ったもの—は、ジェネレーティブAIが、制限されなければ、社会に大きな被害をもたらす可能性があることを明らかにしました。
これは、ソーシャルメディアで見た映画と同じですが、それがその欠点に気付くために何年もかかり、多くの苦い教訓を得る必要がありました。私たちは(おそらく)何かを学びました。今日の質問は、誰がジェネレーティブAIによる現実の歪曲の潮流を止めるのに役立つでしょうか。また、どのように?
予測通り、政府は行動を始めています。ヨーロッパは、特にテクノロジー規制において、先頭に立っています。アメリカは、バイドン大統領が先月に大統領令を発令したことです。
しかし、「ジェネレーティブAIを正直にする」ために、世界中の村が協力して行動する必要があります。政府が助ける前に、利用可能なアプローチの限界を理解する必要があります。
アイデンティティの問題は、より悪化しています
この新しい世界では、真実は意見の山の中の針のように見えます。コンテンツが誰から来ているかを知ることは、以前よりも重要です。
しかし、すべてのソーシャルメディアアカウントがアイデンティティを検証する必要があると宣言することは、簡単ではありません。強い反対があり、一部のケースでは匿名性がアカウントホルダーを保護するために必要です。さらに、最悪のコンテンツを消費する多くの人は、それが信頼できるかどうか、どこから来たかどうかを気にしません。
これらの注意書きにもかかわらず、ジェネレーティブAIに対処する上でのアイデンティティの潜在的な役割は、十分に評価されていません。懐疑的な人たちは、私の話を聞いてください。
プラットフォームが規制や社会的良心によって、すべてのアカウントホルダーに次の選択肢を与えることを想像してみましょう:
- アイデンティティを検証するかどうか、
- 検証されたアイデンティティを公開するか、または「ID検証済み」と表示するだけ
すると、ソーシャルメディアのオーディエンスは、誰が信頼できるかをよりよく判断できます。同様に重要なのは、アイデンティティが責任を支援することです。プラットフォームは、ジェネレーティブAI生成コンテンツの悪用を繰り返すアカウントに対して、行動を取ることができます。即使異なるアカウント名で現れたとしてもです。
ジェネレーティブAIが利害関係を高めているため、私は、誰が何を投稿したかを正確に知ることは、重要であると考えています。アイデンティティは、全面的ではない答えではありません。実際、どの解決策もすべての利害関係者を満足させることはできません。しかし、規制がすべてのアカウントにアイデンティティ検証を提供するようにプラットフォームを強制する場合、私は、その影響が大きなプラスになることを確信しています。
モデレーションの難題
コンテンツモデレーション—自動化されたものと人間によるもの—は、不適切なコンテンツに対する最後の防衛線です。人間によるモデレーションは、最悪の人間の行為にさらされることで心理的な危害のリスクがある、厳しい仕事です。また、高価であり、プラットフォームが減らそうとしている偏った検閲の疑いもあります。
自動化されたモデレーションは、人間の能力を超えて新しいコンテンツの洪水に対処することができますが、コンテキスト(メームは一般的な例です)や文化的ニュアンスを理解することができません。モデレーションの両方の形式は、重要で必要ですが、答えのすべてではありません。
ジェネレーティブAIを制御するための、よく聞かれる従来の処方箋は、「テクノロジー企業、政府、市民社会の協力が必要です。」確かにですが、具体的には?
政府は、ソーシャルメディアプラットフォームがアイデンティティ検証を提供し、すべての投稿でそれを目立つように表示することができるように推進できます。規制当局は、実際に信頼できるかどうかを判断するのに役立つ信頼性の指標を提供する道筋を敷くことができます。コラボレーションは、民間部門が推測しなくてもよいように、具体的な指針と方向性を示すための普遍的な基準を開発するために必要です。
最後に、悪意のあるAI出力を作成することは、違法になるべきでしょうか。違法行為のために設計されたコンテンツを禁止する法律は、有害なコンテンツの量を減らし、モデレーターにかかる負担を軽減することができます。私は、規制や法律が、ディスインフォメーションに打ち勝つことができるとは考えていませんが、それらは脅威に立ち向かう上で不可欠です。
陽気な側面:イノベーション
イノベーションの約束は、私を楽観主義者にします。政治家やプラットフォーム所有者が、AI生成の欺瞞から完全に保護することは期待できません。彼らは大きなギャップを残しますが、これは新しいテクノロジーを発明するためのインスピレーションとなり、コンテンツを認証し、ニセモノを検出することになります。
私たちは、ソーシャルメディアの悪い面を既に知っているので、ジェネレーティブAIが人間にとって大きなマイナスになる可能性があることを、すぐに認識しました。分極と誤解を生み出す能力があります。
楽観的に見ると、制御方法が一緒に機能する、マルチプルアプローチの利点があります。まず、違法使用を目的としたコンテンツの作成を制限します。次に、匿名を拒否する人のアイデンティティを検証します。次に、信頼性の評価と投稿者のアイデンティティまたは匿名性を示すための明確なラベルを表示します。最後に、自動化されたモデレーションと人間によるモデレーションが、最悪のものをフィルタリングできます。新しい認証テクノロジーが近々登場することを予想しています。
すべてを加えると、より優れた、しかし完璧ではない解決策が得られます。一方で、私たちは、現実のものと偽物のものを判断し、誰が本当のことを言っているか、誰が私たちを欺こうとしているかを判断するスキルを身につける必要があります。












