倫理
研究者たちは、人々のプライバシーを保護するために AI を使用できると信じています

情報科学の二人の教授が最近発表した 『ザ・カンバセーション』の一部、AIは人々のプライバシーを保護し、AIが生み出した問題の一部を修正するのに役立つ可能性があると主張した。
Zhiyuan Chen と Aryya Gangopadhyay は、人工知能アルゴリズムを人々のプライバシーを保護するために使用でき、他の AI の使用法によって引き起こされる多くのプライバシー上の懸念の一部を打ち消すことができると主張しています。 チェン氏とガンゴパディヤイ氏は、私たちが利便性のために使用している AI 主導の製品の多くは、大量のデータにアクセスしなければ機能せず、一見するとプライバシーを保護しようとする試みと矛盾しているように見えることを認めています。 さらに、AI がますます多くの業界やアプリケーションに広がるにつれて、より多くのデータが収集され、データベースに保存されるようになり、データベースへの侵害が誘惑的になります。 しかし、Chen 氏と Gangopadhyay 氏は、AI を正しく使用すれば、これらの問題を軽減できると信じています。
Chen 氏と Gangopadhyay 氏は投稿の中で、AI に関連するプライバシー リスクは少なくとも XNUMX つの異なる原因から発生していると説明しています。 最初のソースはニューラル ネットワーク モデルをトレーニングするために収集された大規模なデータセットであり、XNUMX 番目のプライバシーの脅威はモデル自体です。 これらのモデルからデータが「漏洩」する可能性があり、モデルの動作によってトレーニングに使用されたデータの詳細が漏洩してしまいます。
ディープ ニューラル ネットワークは複数のニューロン層で構成され、各層は周囲の層に接続されています。 個々のニューロンとニューロン間のリンクは、トレーニング データのさまざまなビットをエンコードします。 モデルが過剰適合していなくても、トレーニング データのパターンを記憶する能力が高すぎることが判明する場合があります。 コーネル大学の報告によると、トレーニング データの痕跡がネットワーク内に存在し、悪意のある攻撃者がトレーニング データの側面を確認できる可能性があります。 彼らの研究中に発見されました。 コーネル大学の研究者らは、攻撃者が顔認識アルゴリズムを悪用して、顔認識モデルのトレーニングにどの画像、つまりどの人物が使用されたかを明らかにする可能性があることを発見しました。 コーネル大学の研究者らは、攻撃者がアプリケーションのトレーニングに使用された元のモデルにアクセスできない場合でも、モデルを使用するだけでネットワークを調査し、トレーニング データに特定の人物が含まれているかどうかを判断できる可能性があることを発見しました。それは、非常に類似したデータでトレーニングされたものでした。
一部の AI モデルは現在、データ侵害から保護し、人々のプライバシーを確保するために使用されています。 AI モデルは、ハッカーがセキュリティ手法に侵入するために使用する行動パターンを認識することにより、ハッキングの試みを検出するためによく使用されます。 ただし、ハッカーはパターン検出 AI をだまそうとするために動作を変えることがよくあります。
AI のトレーニングと開発の新しい方法は、AI モデルとアプリケーションがハッキング手法やセキュリティ回避戦術に対して脆弱になることを目的としています。 敵対的学習は、悪意のある入力または有害な入力のシミュレーションで AI モデルをトレーニングすることを目的としており、そうすることでモデルが悪用に対してより堅牢になるため、名前に「敵対的」が含まれています。 チェン氏とガンゴパディヤイ氏の研究によれば、 発見した 人々の個人情報を盗むように設計されたマルウェアに対抗する方法。 XNUMX 人の研究者は、マルウェアに対抗するのに最も効果的であると発見した方法の XNUMX つは、モデルに不確実性を導入することであると説明しました。 目標は、悪意のある攻撃者がモデルが特定の入力にどのように反応するかを予測することをより困難にすることです。
AI を利用してプライバシーを保護する他の方法には、モデルの作成およびトレーニング時にデータの公開を最小限に抑えることや、ネットワークの脆弱性を発見するための調査が含まれます。データ プライバシーの保護に関しては、フェデレーテッド ラーニングを使用すると、トレーニング データがデータを含むローカル デバイスから離れることなくモデルをトレーニングできるため、データやデータの多くが隔離されます。スパイによるモデルのパラメータ。
最終的に、Chen 氏と Gangopadhyay 氏は、AI の普及により人々のプライバシーに対する新たな脅威が生じている一方で、AI は注意深く設計されていればプライバシーの保護にも役立つと主張しています。