スタブ AI チャットボットの危険性 - およびそれに対抗する方法 - Unite.AI
私達と接続

ソートリーダー

AI チャットボットの危険性 – およびそれに対抗する方法

mm

公開済み

 on

かつては単なる自動会話プログラムと考えられていましたが、AI チャットボットは現在、人間とほとんど区別できない会話を学習して実行できるようになりました。 ただし、AI チャットボットの危険性も同様に多様です。

これらは、人々による悪用から実際のサイバーセキュリティのリスクまで多岐にわたります。 人間が AI テクノロジーにますます依存するようになるにつれ、これらのプログラムを使用した場合の潜在的な影響を知ることが不可欠です。 しかし、ボットは危険なのでしょうか?

1. 偏見と差別

AI チャットボットの最大の危険性の XNUMX つは、有害な偏見に陥る傾向があることです。 AI は人間が見逃しがちなデータポイント間のつながりを描くため、トレーニング データ内の微妙な暗黙のバイアスを感知して、差別的であることを自らに学習させる可能性があります。 その結果、チャットボットは、たとえトレーニング データに極端な内容が含まれていなかったとしても、人種差別的、性差別的、またはその他の差別的なコンテンツを吐き出すことをすぐに学習することができます。

代表的な例は、Amazon が廃棄した採用ボットです。 2018 年に、Amazon が AIプロジェクトを放棄した これは女性からの応募にペナルティを与えるため、応募者の履歴書を事前に評価することを意味していた。 ボットがトレーニングした履歴書のほとんどが男性のものだったため、たとえトレーニング データに明示的に記載されていなかったとしても、ボットは男性の応募者が好ましいと自ら学習しました。

インターネット コンテンツを使用して自然なコミュニケーション方法を学習するチャットボットは、さらに極端な偏見を示す傾向があります。 2016 年、Microsoft はソーシャル メディアの投稿を模倣することを学習した Tay という名前のチャットボットをデビューさせました。 数時間以内に、それは 非常に不快な内容をツイートし始めた、やがてマイクロソフトはアカウントを停止することになった。

企業がこれらのボットを構築および導入する際に注意しないと、誤って同様の状況が発生する可能性があります。 チャットボットは顧客を虐待したり、防止すべき有害な偏ったコンテンツを拡散したりする可能性があります。

2. サイバーセキュリティのリスク

AI チャットボット テクノロジーの危険性は、人々や企業に対してより直接的なサイバーセキュリティの脅威となる可能性もあります。 サイバー攻撃の最も多大な形態の XNUMX つは、フィッシング詐欺とビッシング詐欺です。 これらには以下が含まれます 信頼できる組織を模倣するサイバー攻撃者 銀行や政府機関など。

フィッシング詐欺は通常、電子メールやテキスト メッセージを通じて行われます。リンクをクリックすると、マルウェアがコンピュータ システムに侵入することが可能になります。 ウイルスは侵入すると、個人情報を盗んだり、身代金を要求するためにシステムを保持したりすることまで、あらゆることを行う可能性があります。

新型コロナウイルス感染症(COVID-19)のパンデミック中およびパンデミック後、フィッシング攻撃の割合は着実に増加しています。 サイバーセキュリティ・インフラセキュリティ庁 84% の人が見つかりました 機密情報を含むフィッシング メッセージに返信したり、リンクをクリックしたりしました。

フィッシング詐欺師は AI チャットボット テクノロジーを使用して被害者の検索を自動化し、リンクをクリックして個人情報を放棄するよう説得しています。 チャットボットは、顧客サービス エクスペリエンスを合理化するために、銀行などの多くの金融機関で使用されています。

チャットボット フィッシング詐欺師は、銀行が被害者をだますために使用するものと同じ自動プロンプトを模倣することができます。 また、自動的に電話番号にダイヤルしたり、対話型チャット プラットフォームで被害者に直接連絡したりすることもできます。

3. データポイズニング

データポイズニングは、人工知能を直接標的とする新たに考案されたサイバー攻撃です。 AI テクノロジーはデータセットから学習し、その情報を使用してタスクを完了します。 これは、目的や機能に関係なく、すべての AI プログラムに当てはまります。

チャットボット AI の場合、これは、ユーザーが与えられる可能性のある質問に対する複数の回答を学習することを意味します。 しかし、これはAIの危険性の一つでもあります。

これらのデータセットは多くの場合、誰でも利用できるオープンソースのツールやリソースです。 AI 企業は通常、データ ソースの秘密を厳重に保管しますが、サイバー攻撃者はどのデータ ソースを使用するかを判断してデータを操作する可能性があります。

サイバー攻撃者は次の方法を見つけることができます。 データセットを改ざんする AI をトレーニングするために使用され、AI が意思決定や応答を操作できるようになります。 AIは改ざんされたデータの情報を利用し、攻撃者の望む行為を実行します。

たとえば、データ セットの最も一般的に使用されるソースの XNUMX つは、Wikipedia などの Wiki リソースです。 データはウィキペディアのライブ記事から取得されたものではありませんが、特定の時点で取得されたデータのスナップショットから取得されます。 ハッカーは自分たちに利益をもたらすようにデータを編集する方法を見つけることができます。

チャットボット AI の場合、ハッカーは医療機関や金融機関で機能するチャットボットのトレーニングに使用されるデータ セットを破壊する可能性があります。 チャットボット プログラムを操作して顧客に誤った情報を提供し、マルウェアや詐欺的な Web サイトを含むリンクをクリックさせる可能性があります。 AI が汚染されたデータからの抽出を開始すると、検出するのが難しく、長期間気づかれないサイバーセキュリティの重大な侵害につながる可能性があります。

AI チャットボットの危険性にどう対処するか

これらのリスクは懸念すべきものですが、ボットが本質的に危険であるという意味ではありません。 むしろ、チャットボットを構築および使用する際には、慎重にアプローチし、これらの危険性を考慮する必要があります。

AI のバイアスを防ぐ鍵は、トレーニング全体を通して AI のバイアスを探すことです。 多様なデータセットでトレーニングし、意思決定において人種、性別、性的指向などを考慮しないように特別にプログラムするようにしてください。 また、多様なデータ サイエンティスト チームを編成して、チャットボットの内部動作をレビューし、たとえそれが微妙なものであってもバイアスが生じていないことを確認することも最善です。

フィッシングに対する最善の防御策はトレーニングです。 すべての従業員にスポットを当てるようトレーニングする フィッシング攻撃の一般的な兆候 彼らがこれらの攻撃に引っかからないようにするためです。 この問題に関する消費者の認識を広めることも役立ちます。

チャットボットのトレーニング データへのアクセスを制限することで、データ ポイズニングを防ぐことができます。 仕事を正しく行うためにこのデータにアクセスする必要がある人だけが権限を持つ必要があります。これは、最小特権の原則と呼ばれる概念です。 これらの制限を実装した後は、多要素認証や生体認証などの強力な検証手段を使用して、サイバー犯罪者が承認されたアカウントをハッキングするリスクを防ぎます。

AI 依存の危険性に対して常に警戒を続ける

人工知能は、ほぼ無限に応用できる本当に素晴らしいテクノロジーです。 しかし、AI の危険性はあまり知られていないかもしれません。 ボットは危険ですか? 本質的にはそうではありませんが、サイバー犯罪者はさまざまな破壊的な方法でこれらを使用する可能性があります。 この新しく発見されたテクノロジーをどのような用途に活用するかはユーザー次第です。