スタブ 説明可能なAIとは何ですか? - Unite.AI
私達と接続
AI マスタークラス:

AI 101

説明可能なAIとは?

更新中 on
画像: Unsplash の DeepMind

人工知能 (AI) がより複雑になり、社会全体に広く採用されるにつれて、最も重要なプロセスと手法のセットの XNUMX つが、XAI とも呼ばれる説明可能 (AI) です。 

説明可能な AI は次のように定義できます。

  • 人間のユーザーが機械学習アルゴリズムの結果を理解し、信頼するのに役立つ一連のプロセスと方法。 

ご想像のとおり、AI アルゴリズムが多くのセクターを制御するため、この説明可能性は非常に重要ですが、これにはバイアス、アルゴリズムの欠陥、その他の問題のリスクが伴います。 説明可能性を備えた透明性を実現することで、世界は AI の力を真に活用できるようになります。 

Explainable AI は、その名前が示すように、AI モデル、その影響、および潜在的なバイアスを説明するのに役立ちます。 また、AI を活用した意思決定プロセスにおけるモデルの精度、公平性、透明性、および結果を特徴付ける役割も果たします。 

今日の AI 主導の組織は、本番環境の AI モデルに対する信頼と確信を築くために、常に説明可能な AI プロセスを採用する必要があります。 説明可能な AI は、今日の AI 環境において責任ある企業になるための鍵でもあります。

今日の AI システムは非常に進歩しているため、通常は人間が計算プロセスを実行して、アルゴリズムがどのように結果に到達したかを追跡します。 このプロセスは「ブラックボックス」となり、理解することが不可能になります。 このような説明のつかないモデルがデータから直接開発されると、内部で何が起こっているのか誰も理解できません。 

説明可能な AI を通じて AI システムがどのように動作するかを理解することで、開発者はシステムが正しく動作することを保証できます。 また、モデルが規制基準を満たしていることを確認するのにも役立ち、モデルに異議を唱えたり変更したりする機会を提供します。 

画像: マット・チュレック博士/DARPA

AIとXAIの違い

いくつかの重要な違いは、「通常の」 AI と説明可能な AI を区別するのに役立ちますが、最も重要なのは、XAI が、ML プロセスにおける各決定が追跡可能で説明可能であることを保証するのに役立つ特定の技術とメソッドを実装していることです。 これに対して、通常の AI は ML アルゴリズムを使用して結果を導き出しますが、アルゴリズムがどのように結果に到達したかを完全に理解することは不可能です。 通常の AI の場合、精度をチェックすることが非常に難しく、その結果、制御性、説明責任、監査性が失われます。 

説明可能な AI の利点 

Explainable AI の導入を検討している組織には、次のような多くのメリットがあります。 

  • より迅速な結果: Explainable AI を使用すると、組織はモデルを体系的に監視および管理して、ビジネスの成果を最適化できます。 モデルのパフォーマンスを継続的に評価および改善し、モデル開発を微調整することが可能です。
  • リスクを軽減する: 説明可能な AI プロセスを採用することで、AI モデルが説明可能で透明性のあるものになります。 手動検査のオーバーヘッドを最小限に抑えながら、規制、コンプライアンス、リスク、その他の要件を管理できます。 これらすべては、意図しないバイアスのリスクを軽減するのにも役立ちます。 
  • 信頼を築く: Explainable AI は、本番環境 AI の信頼を確立するのに役立ちます。 AI モデルを迅速に実稼働環境に導入でき、解釈可能性と説明可能性を確保でき、モデルの評価プロセスを簡素化して透明性を高めることができます。 

説明可能な AI のテクニック

すべての組織が考慮すべき XAI テクニックがいくつかあり、それらは XNUMX つの主要な方法で構成されます。 予測精度, トレーサビリティ, 意思決定の理解

XNUMX つの方法のうちの最初の方法は、 予測精度、日常業務で AI をうまく活用するには不可欠です。 シミュレーションを実行し、XAI 出力をトレーニング データ セットの結果と比較することで、予測精度を判断することができます。 これを実現するための最も一般的な手法の XNUMX つは、Local Interpretable Model-Agnostic Explains (LIME) と呼ばれるもので、機械学習アルゴリズムによる分類器の予測を説明する手法です。 

XNUMX番目の方法は トレーサビリティこれは、意思決定の方法を制限し、機械学習のルールと機能の範囲を狭くすることで実現されます。 最も一般的なトレーサビリティ技術の XNUMX つは、DeepLIFT (Deep Learning 重要な機能) です。 DeepLIFT は、各ニューロンの活性化をその参照ニューロンと比較しながら、活性化された各ニューロン間の追跡可能なリンクを示します。 また、それらの間の依存関係も示します。 

XNUMX番目で最後の方法は、 意思決定の理解、他の XNUMX つの方法とは異なり、人間に焦点を当てています。 意思決定の理解には、組織、特に AI が意思決定を行う方法と理由を理解できるように AI を使用するチームを教育することが含まれます。 この方法は、システムの信頼を確立するために非常に重要です。 

説明可能な AI 原則

XAI とその原則をより深く理解するために、米国商務省の一部である米国標準協会 (NIST) は、説明可能な AI の XNUMX つの原則の定義を提供しています。 

  1. AI システムは、各出力に対して証拠、サポート、または推論を提供する必要があります。 
  2. AI システムは、ユーザーが理解できる説明を提供する必要があります。 
  3. 説明は、システムが出力に到達するために使用するプロセスを正確に反映している必要があります。 
  4. AI システムは、設計された条件下でのみ動作する必要があり、結果に十分な信頼がない場合には出力を提供すべきではありません。 

これらの原則はさらに次のように整理できます。 

  • 意味がある: 意味の原則を達成するには、ユーザーは提供された説明を理解する必要があります。 これは、AI アルゴリズムがさまざまなタイプのユーザーによって使用されている場合、複数の説明が存在する可能性があることも意味します。 たとえば、自動運転車の場合、次のような説明が考えられます。「AI が道路にあるビニール袋を石と分類したため、衝突を避けるための行動をとった。」 この例はドライバーにとっては機能しますが、問題を修正しようとしている AI 開発者にとってはあまり役に立ちません。 この場合、開発者は、なぜ誤分類が起こったのかを理解する必要があります。 
  • 説明精度: 出力の精度とは異なり、説明の精度には、AI アルゴリズムが出力にどのように到達したかを正確に説明することが含まれます。 たとえば、ローン承認アルゴリズムが、実際には申請者の居住地に基づいているにもかかわらず、申請者の収入に基づいて決定を説明している場合、その説明は不正確になります。 
  • 知識の限界: AI の知識限界に達するには XNUMX つの方法があり、これにはシステムの専門知識の範囲外にある入力が含まれます。 たとえば、鳥の種を分類するシステムが構築され、それにリンゴの写真が与えられた場合、その入力が鳥ではないことを説明できるはずです。 ぼやけた画像がシステムに与えられた場合、システムは画像内の鳥を識別できないこと、またはその識別の信頼性が非常に低いことを報告できるはずです。 

Explainable AI におけるデータの役割

説明可能な AI の最も重要なコンポーネントの XNUMX つはデータです。 

による でログイン、データと説明可能な AI に関して、「AI システムは、基礎となるトレーニング データとトレーニング プロセス、そして結果として得られる AI モデルによって最もよく理解されます。」 この理解は、トレーニングされた AI モデルをトレーニングに使用された正確なデータセットにマッピングする能力と、データを詳しく調べる能力に依存しています。 

モデルの説明可能性を高めるには、トレーニング データに注意を払うことが重要です。 チームは、アルゴリズムのトレーニングに使用されるデータの出所、その取得に関する合法性と倫理、データ内の潜在的なバイアス、およびバイアスを軽減するために何ができるかを判断する必要があります。 

データと XAI のもう XNUMX つの重要な側面は、システムに無関係なデータを除外する必要があることです。 これを達成するには、無関係なデータがトレーニング セットまたは入力データに含まれていてはなりません。 

Google は、解釈可能性と説明責任を達成するための一連の実践を推奨しています。 

  • 解釈可能性を追求するためのオプションを計画する
  • 解釈可能性をユーザーエクスペリエンスの中核部分として扱う
  • 解釈可能なモデルを設計する
  • 最終目標と最終タスクを反映する指標を選択してください
  • トレーニング済みモデルを理解する
  • モデルユーザーに説明を伝える
  • AI システムが意図したとおりに動作していることを確認するために、多くのテストを実施します。 

これらの推奨プラクティスに従うことで、組織は説明可能な AI を確実に実現できます。これは、今日の環境における AI 主導型組織の鍵となります。 

 

Alex McFarland は、AI ジャーナリスト兼ライターであり、人工知能の最新の発展を調査しています。彼は世界中の数多くの AI スタートアップ企業や出版物と協力してきました。