スタブ 表現力豊かなブール式を使用した説明可能な AI - Unite.AI
私達と接続

ソートリーダー

表現力豊かなブール式を使用した説明可能な AI

mm

公開済み

 on

人工知能 (AI) と機械学習アプリケーションの爆発的な増加は、ほぼすべての業界と生活の一部に浸透しています。

しかし、その成長は皮肉なしには実現しません。 AI は意思決定やワークフローを簡素化および/または加速するために存在しますが、そのための方法論は非常に複雑であることがよくあります。 実際、一部の「ブラック ボックス」機械学習アルゴリズムは非常に複雑かつ多面的であるため、それを作成したコンピューター科学者ですら単純な説明を不可能にすることがあります。

金融や医療の分野などの特定のユースケースが、AI ソリューションの内部動作についての透明性のある説明を必要とする業界のベスト プラクティスや政府の規制によって定義されている場合、これは非常に問題となる可能性があります。 また、これらのアプリケーションが説明可能性の要件を満たすのに十分な表現力を持たない場合、全体的な有効性に関係なく、役に立たなくなる可能性があります。

この難題に対処するために、私たちのチームは フィデリティ応用技術センター (FCAT) — Amazon Quantum Solutions Lab と協力して — 表現力豊かなブール式に基づいた Explainable AI (XAI) 用の解釈可能な機械学習モデルを提案し、実装しました。 このようなアプローチには、XNUMX つ以上のブール変数に適用できる任意の演算子を含めることができるため、より厳格なルールベースやツリーベースのアプローチと比較して、より高い表現力が得られます。

あなたは読むことができます 全紙 このプロジェクトの包括的な詳細については、こちらをご覧ください。

私たちの仮説は、デシジョン ツリーなどのモデルは深くなり、解釈が困難になる可能性があるため、複雑さは低くても精度が高い表現ルールを見つける必要が、解決する必要のある難しい最適化問題であるというものでした。 さらに、この高度な XAI アプローチを通じてモデルを簡素化することで、ML の倫理的かつ責任ある使用の観点から重要なバイアスを明らかにするなど、さらなる利点を得ることができます。 また、モデルの保守と改善も容易になります。

私たちは、表現力豊かなブール式に基づくアプローチを提案しました。なぜなら、ブール式は、入力データの分類に応じて調整可能な複雑さ (または解釈可能性) を備えたルールを定義するからです。 このような式には、XNUMX つ以上のブール変数 (And や AtLeast など) に適用できる任意の演算子を含めることができるため、より厳密なルールベースやツリーベースの方法論と比較してより高い表現力が得られます。

この問題では、アルゴリズムのパフォーマンスを最大化しつつ、アルゴリズムの複雑さを最小限に抑えるという XNUMX つの競合する目標があります。 したがって、複数の目標を XNUMX つに結合する、または目標の XNUMX つを制約するという XNUMX つの最適化手法のいずれかを適用するという一般的なアプローチを採用するのではなく、両方を定式化に含めることを選択しました。 その際、一般性を損なうことなく、主にバランスの取れた精度を包括的なパフォーマンス指標として使用します。

また、AtLeast のようなオペレーターを組み込むことで、特定の状態を示す医学的症状のリストなど、高度に解釈可能なチェックリストのニーズに対処するという考えに動機付けられました。 このような症状のチェックリストを使用して、陽性診断を得るために最小限の数が存在する必要があるという方法で決定が行われることが考えられます。 同様に、金融において、銀行は、より大きなリストからの特定の数の要素の存在に基づいて、顧客に信用を提供するかどうかを決定することがあります。

私たちは XAI モデルの実装に成功し、信用、顧客の行動、病状についていくつかの公開データセットでベンチマークを行いました。 私たちのモデルは、他のよく知られた代替モデルと一般的に競合できることがわかりました。 また、XAI モデルは、高速整数線形計画法 (ILP) または二次制約なし XNUMX 値最適化 (QUBO) を解決するために、専用のハードウェアまたは量子デバイスを利用できる可能性があることもわかりました。 QUBO ソルバーの追加により反復回数が削減され、非ローカルな動きの迅速な提案による高速化につながります。

前述したように、ブール式を使用した説明可能な AI モデルは、ヘルスケアや Fidelity の金融分野 (信用スコアリングや、一部の顧客が製品を選択し、他の顧客が選択しなかった理由を評価するなど) で多くの応用が可能です。 これらの解釈可能なルールを作成することで、マーケティング キャンペーンの最適化だけでなく、製品開発や改良における将来の改善につながる、より高いレベルの洞察を得ることができます。

私たちの調査結果に基づいて、表現力豊かなブール式を使用した Explainable AI は、さらなる説明可能性が求められるユースケースに適切かつ望ましいと判断しました。 さらに、量子コンピューティングが発展し続けるにつれて、量子コンピューティングやその他の特殊用途のハードウェア アクセラレータを使用することで潜在的な速度向上が得られる可能性があると予測しています。

今後の作業は、これらの分類子を他のデータセットに適用すること、新しい演算子を導入すること、またはこれらの概念を他のユースケースに適用することに集中する可能性があります。

Elton Zhu は、 フィデリティ応用技術センター (FCAT) は、研究とテクノロジーにおける画期的な成果を促進するフィデリティ インベストメンツの一部門です。 量子コンピューティング、金融、人工知能の交差点に広く関心を持っている Zhu 博士は、量子コンピューティングをさまざまなユースケースにどのように適用できるかに関するフィデリティの研究を主導しています。