倫理
5つの基盤となる柱による責任あるAIの確保

私たちは、新しいデジタル経済で生成される大量のデータを処理するために、AI/MLシステムの急速な成長を目にしています。ただし、この成長に伴って、AIの倫理的および法的影響を深刻に考慮する必要があります。
私たちが自動ローン承認などの、ますます複雑で重要なタスクをAIシステムに任せるにつれて、これらのシステムが責任あるものであり、信頼できるものであることを絶対に確実にする必要があります。AIにおける偏見の削減は、多くの研究者の注目すべき大きな分野となり、倫理的な影響が非常に大きくなります。また、これらのシステムに与える自律性の程度も同様です。
責任あるAIの概念は、AIの導入に信頼を築くための重要なフレームワークです。責任あるAIの基盤となる5つの柱があります。この記事では、これらの柱について探って、より優れたシステムを構築するための手助けとなります。
1. 再現性
ソフトウェア開発の世界には、「私のマシンでは動作する」という古い言葉があります。MLとAIでは、この言葉を「私のデータセットでは動作する」と変えることができます。つまり、機械学習モデルはしばしばブラックボックスのようになることがあります。多くのトレーニングデータセットには、サンプリングバイアスや確認バイアスなどの内在的なバイアスが存在し、最終製品の精度を低下させます。
AI/MLシステムをより再現可能で、したがって正確で信頼できるものにするために、最初のステップはMLOpsパイプラインを標準化することです。最も賢いデータサイエンティストでも、好みのテクノロジーとライブラリがあります。つまり、特徴量エンジニアリングと結果のモデルは、人によって一貫性がありません。MLflowなどのツールを使用することで、MLOpsパイプラインを標準化し、これらの違いを減らすことができます。
AI/MLシステムをより再現可能にする別の方法は、「ゴールドデータセット」と呼ばれるものを使用することです。これらは、代表的なデータセットであり、基本的に新しいモデルのテストおよび検証として機能し、プロダクションにリリースされる前に実行されます。
2. 透明性
先ほど述べたように、多くのMLモデル、特にニューラルネットワークはブラックボックスです。これらをより説明可能にするために、透明性を高める必要があります。単純なシステムである決定木の場合、システムが特定の決定を下した理由と方法を理解することは比較的容易です。しかし、AIシステムの精度と複雑さが高まるにつれて、その解釈可能性は低下することがあります。
「説明可能性」と呼ばれる新しい研究分野があり、ニューラルネットワークやディープラーニングなどの複雑なAIシステムに透明性をもたらすことを目指しています。これらのモデルは、ニューラルネットワークのパフォーマンスをコピーするプロキシモデルを使用しますが、同時に、どの特徴が重要であるかについて有効な説明を提供します。
これは、公平性に結びつきます。特定の決定がなぜ下されたのかを知りたいとします。また、不適切な特徴が考慮されないようにし、バイアスがモデルに潜入しないようにします。
3. 説明責任
責任あるAIの最も重要な側面は、説明責任です。このトピックについては、政府部門を含む多くの議論があります。AIの成果を駆り立てる政策について扱います。この政策主導のアプローチでは、人間がループに参加するべき段階を決定します。
説明責任には、政策立案者を支援し、AI/MLシステムを制御するための堅牢なモニターとメトリックが必要です。説明責任は、再現性と透明性をまとめるものですが、AI倫理委員会などの有効な監督が必要です。これらの委員会は、政策決定を行い、測定すべき重要な項目を決定し、公平性のレビューを実施できます。
4. セキュリティ
AIセキュリティは、データの機密性と完全性に焦点を当てています。システムがデータを処理するときは、セキュアな環境で実行されることを望みます。データは、データベース内で静止している間も、パイプラインを介して呼び出される間も、暗号化されていることが望ましいです。しかし、平文としてマシンラーニングモデルにフィードされる際には、脆弱性が依然として存在します。ホモモルフィック暗号化などのテクノロジーは、暗号化された環境でマシンラーニングのトレーニングを可能にすることで、この問題を解決します。
別の側面は、モデル自体のセキュリティです。たとえば、モデル逆転攻撃により、ハッカーはモデルを構築するために使用されたトレーニングデータを学習できます。また、モデルをトレーニング中に悪意のあるデータを挿入してそのパフォーマンスを完全に損なうモデルポイズニング攻撃もあります。モデルをこれらのアドバーサリアル攻撃に対してテストすることで、セーフでセキュアな状態を維持できます。
5. プライバシー
GoogleやOpenMinedなどの組織は最近、AIプライバシーに注力しています。OpenMinedはこのトピックに関するカンファレンスを開催しました。GDPRやCCPAなどの新しい規制が施行され、将来さらに規制が追加される可能性があるため、プライバシーはマシンラーニングモデルのトレーニング方法に中心的な役割を果たすことになります。
顧客のデータをプライバシーに配慮した方法で処理する方法の1つは、フェデレーテッドラーニングを使用することです。この分散型マシンラーニング方法では、ローカルで異なるモデルをトレーニングし、中央ハブでモデルを集約しながら、データを安全に保ちます。また、統計的なノイズを導入して、個々の顧客の値が漏洩しないようにする方法もあります。これにより、集約されたデータで作業し、個々の顧客のデータがアルゴリズムに公開されないようにします。
AIを責任あるものに保つ
最終的に、AIを責任あるものに保つことは、AI/MLシステムを設計する各組織の責任です。これらの5つの側面すべてにわたるテクノロジーを意図的に追求することで、AIの力を活用しながら、信頼できる方法で、組織、顧客、規制当局を安心させることができます。












