私達と接続

AI を活用したディープフェイクが選挙の公正性を脅かす理由と対策

ソートリーダー

AI を活用したディープフェイクが選挙の公正性を脅かす理由と対策

mm

公開済み

 on

選挙広告はすでに少々乱雑で物議を醸すものになりつつあります。

では、候補者があなたの投票を左右するような強い立場を表明する選挙広告のターゲットになっていると想像してください。しかも、その広告は本物ではありません。ディープフェイクです。

これは未来の仮説ではありません。ディープフェイクは現実に蔓延している問題です。AI が生成した「推薦」がすでに話題になっていますが、私たちが耳にしたのはほんの表面的な話にすぎません。

2024 年の米国大統領選挙が近づくにつれ、私たちはサイバー セキュリティと情報の完全性において未知の領域に足を踏み入れようとしています。私はサイバー セキュリティと AI がまだ初期の概念だった頃からこの XNUMX つの交差点で働いてきましたが、現在起きているようなことは見たことがありません。

人工知能の急速な進化、特に generative AI そしてもちろん、リアルな作品を簡単に作れるようになった ディープフェイク — 選挙の脅威の状況は一変しました。この新たな現実は、選挙のセキュリティと有権者教育に関する基本的な前提の変更を要求しています。

兵器化された AI

私の個人的な経験を証拠として受け取る必要はありません。今日私たちが直面しているサイバーセキュリティの課題が前例のない速度で進化していることを示す証拠はたくさんあります。わずか数年の間に、潜在的な脅威アクターの能力と手法が劇的に変化しました。この進化は、AI テクノロジーの急速な発展を反映していますが、懸念すべき点があります。

適例:

  • 脆弱性の急速な武器化今日の攻撃者は、新たに発見された脆弱性を迅速に悪用することができ、多くの場合、パッチの開発と展開よりも速く悪用されます。AI ツールはこのプロセスをさらに加速し、脆弱性の発見から悪用までの時間を短縮します。
  • 攻撃対象領域の拡大。 クラウド テクノロジーの広範な導入により、潜在的な攻撃対象領域が大幅に拡大しました。分散インフラストラクチャと、クラウド プロバイダーとユーザー間の責任共有モデルは、適切に管理されていない場合、悪用の新たなベクトルを生み出します。
  • 時代遅れの従来のセキュリティ対策ファイアウォールやウイルス対策ソフトウェアなどの従来のセキュリティ ツールは、特に AI 生成コンテンツの検出と軽減に関しては、進化する脅威に対応するのに苦労しています。

誰が話しているか見て

この新たな脅威の状況において、ディープフェイクは選挙の公正性に対する特に陰険な挑戦となります。 最近の研究 Ivanti の調査では、その脅威を数字で示しています。半数以上のオフィスワーカー (54%) は、高度な AI が他人の声を偽装できることに気づいていません。重要な選挙サイクルが近づく中、潜在的な有権者のこの認識不足は深刻な懸念事項です。

非常に多くのことが危機に瀕しています。

今日のディープフェイク技術の洗練により、国内外の脅威アクターは最小限の労力で、説得力のある偽の音声、動画、テキスト コンテンツを作成できます。単純なテキスト プロンプトでディープフェイクを生成できるようになり、本物のコンテンツとの区別がますます難しくなっています。この機能は、偽情報の拡散や世論操作に深刻な影響を及ぼします。

原因究明と緩和における課題

AI による選挙干渉に関して、その原因の特定は私たちが直面する最も重要な課題の 1 つです。これまで選挙干渉は国家主体と関連づけられてきましたが、AI ツールの民主化により、さまざまなイデオロギー的動機に駆られた国内のグループがこれらのテクノロジーを活用して選挙に影響を与えることができるようになりました。

潜在的な脅威主体の拡散により、偽情報の発信源を特定し、それを軽減する私たちの能力が複雑化しています。また、従来のサイバーセキュリティ対策を超えた、選挙セキュリティへの多面的なアプローチの必要性も強調されています。

選挙の公正性を維持するための協調的な取り組み

選挙における AI を利用したディープフェイクの課題に対処するには、複数のセクターにまたがる協調的な取り組みが必要です。私たちが努力を集中する必要がある主な分野は次のとおりです。

  • AI システム向けのシフトレフト セキュリティ。 AI システム自体の開発には、「シフトレフト」セキュリティの原則を適用する必要があります。つまり、選挙干渉における悪用の可能性も含め、AI モデル開発の初期段階からセキュリティに関する考慮事項を組み込む必要があります。
  • 安全な構成の適用。 ディープフェイクの生成に使用される可能性のある AI システムとプラットフォームは、デフォルトで堅牢かつ安全な構成になっている必要があります。これには、強力な認証手段や、生成できるコンテンツの種類に対する制限が含まれます。
  • AI サプライチェーンの保護。 ソフトウェア サプライ チェーンのセキュリティ保護に重点を置くのと同様に、この警戒を AI サプライ チェーンにも広げる必要があります。これには、AI モデルのトレーニングに使用されるデータセットや、生成 AI システムで使用されるアルゴリズムの精査が含まれます。
  • 強化された検出機能。 特に選挙関連の情報においては、AI が生成したコンテンツを識別できる高度な検出ツールに投資し、開発する必要があります。これには、AI が生成した偽情報に対抗するために AI 自体を活用することも含まれるでしょう。
  • 有権者教育と意識向上。 ディープフェイクに対する防御の重要な要素は、有権者に十分な情報を提供することです。AI 生成コンテンツの存在とその潜在的な影響を有権者が理解し、遭遇する情報を批判的に評価するためのツールを提供するための包括的な教育プログラムが必要です。
  • 部門を超えたコラボレーション。 テクノロジー業界、特にITおよびサイバーセキュリティ企業は、政府機関、選挙管理当局、メディア組織と緊密に連携し、AIによる選挙干渉に対抗する統一戦線を構築する必要がある。

今、そしてこれから

これらの戦略を実行する際には、その効果を継続的に測定することが重要です。そのためには、AI 生成コンテンツが選挙の議論や有権者の行動に与える影響を追跡するために特別に設計された新しい指標と監視ツールが必要になります。

また、戦略を迅速に適応させる準備も必要です。AI 分野は猛烈なスピードで進化しており、防御策も同様に迅速に進化する必要があります。これには、AI 自体を活用して、より堅牢で適応性の高いセキュリティ対策を作成することも含まれる可能性があります。

選挙における AI を利用したディープフェイクの課題は、サイバーセキュリティと情報の完全性における新たな章を表しています。これに対処するには、従来のセキュリティパラダイムを超えて考え、部門や分野を超えた連携を促進する必要があります。目標は、AI の力を民主的なプロセスに役立てながら、その害悪の可能性を軽減することです。これは単なる技術的な課題ではなく、継続的な警戒、適応、協力を必要とする社会的な課題です。

選挙の公正さ、ひいては民主主義の健全性は、この課題に正面から取り組む私たちの能力にかかっています。これは、技術者、政策立案者、そして国民など、私たち全員に課せられた責任です。

Srinivas Mukkamala 博士は、最高製品責任者です。 イヴァンティ彼は、2021年XNUMX月にIvantiが同社を買収するまで、RiskSenseの創設者兼CEOを務めていました。

彼は Ivanti のセキュリティ ソリューションのリーダーとして入社し、RiskSense のポートフォリオとチームを Ivanti の戦略に統合する上で重要な役割を果たしてきました。彼は人工知能 (AI) とニューラル ネットワーク コミュニティの権威として認められており、米国国防総省と協力してこれらの概念をサイバーセキュリティの問題に適用するシンクタンクの一員でした。

Mukkamala 博士は、すべての Ivanti ソリューションの製品管理を担当しており、ITSM、セキュリティ、UEM という会社のすべての柱にわたる統合ソリューションのイノベーションを今後も推進していきます。
​,war
ムッカマラ博士は、CACTUS(米国に対するサイバーテロの計算分析)の主任研究者でもあり、分散侵入検知システムのためのインテリジェントエージェントとその実践方法に関する特許を保有しています。

ムッカマラ博士は、ニューメキシコ鉱業技術大学でコンピュータサイエンスの博士号と理学修士号を取得しています。