Connect with us

AIを用いた新しい透明性の導入 – Thought Leaders

人工知能

AIを用いた新しい透明性の導入 – Thought Leaders

mm

By Balakrishna D R, Senior Vice President, Service Offering Head – Energy, Communications, Services, and AI and Automation services, at Infosys.

2020年1月9日、世界保健機関(WHO)は、中国でのコロナウイルス感染症の発生を公表した。3日前に、アメリカ疾病対策センター(CDC)も情報を発表していた。しかし、カナダのヘルスモニタリングプラットフォーム「BlueDot」は、すでに2019年12月31日に顧客に感染症の発生を通知していた。このプラットフォームは、外国語のニュースレポート、動物・植物の疾病ネットワーク、公式の声明を分析する人工知能(AI)駆動型アルゴリズムを使用して、危険区域を避けるための事前警告を提供している。

過去数年間、AIは、今日の急速に変化する経済における変革、破壊、競争上の優位性の主要な源となっている。疫病の追跡から防衛、ヘルスケア、自動運転車まで、AIは広く採用されている。PwCによると、AIは2030年までに、現在の成長率で、世界経済に最大15.7兆ドルを貢献する可能性がある。

しかし、AIがもたらす希望とは裏腹に、透明性と信頼性に関する未解決の疑問が依然として残っている。特に、人命、死、個人の健康に関わる分野において、AIシステムの意思決定能力を理解し、予測し、信頼する必要性は重要である。

 

未知の領域

自動推論システムが最初に導入されたとき、それらは手作りのルールに頼っていた。そうすることで、解釈および動作の変更が容易になったが、スケーラビリティに欠けた。機械学習ベースのモデルは、後者のニーズに対処するために登場した。人間の介入は不要であり、データから学習することができた。深層学習モデルは、モデリング能力と適用範囲において無与倫比であるが、しかし、それらのモデルはほとんどがブラックボックスであるという事実は、信頼性、偏り、広範な使用に関する心配を引き起こす。

現在、深層学習モデルが使用する推論を直接追跡するメカニズムはない。ブラックボックス性の機械学習モデルでは、説明可能性の主な種類は事後説明可能性と呼ばれ、モデルによって生成される出力の性質と特性から説明が導かれることを意味する。ニューラルネットワーク(深層学習の旧称)からルールを抽出しようとする初期の試みは、ネットワークが規範的なルール抽出のために大きすぎる、多様すぎるために現在は追求されていない。したがって、AIモデリングの基本的な構造に解釈可能性と透明性を導入する必要性が生じている。

 

夜の終わり、光の始まり

この懸念は、機械学習における透明性の必要性を生み出し、説明可能なAI(XAI)の成長につながっている。XAIは、偏りや透明性を含む、AIの意思決定を完全に信頼する能力を妨げる主要な問題に対処しようとしている。この新しいAI分野は、AIがすべての関係者にとってより良い結果をもたらすことを保証するために、説明責任をもたらす。

XAIは、AIシステムやアルゴリズムに生じる偏りに対処する上で重要となる。AIシステムは、人間によってプログラムされており、人間の背景や経験が無意識のうちに偏ったAIシステムの開発につながることがある。特定の国籍や民族に対する差別などの不必要な偏りが生じる可能性がある。たとえば、典型的なローンのデフォルト者は特定の民族背景から来ているかもしれないが、このような政策を実施することは公平性の原則に反する可能性がある。誤ったデータも偏りの原因となる。たとえば、特定の顔認識スキャナーが、皮膚の色や顔に当たる光のせいで5%の確率で不正確である場合、偏りを生み出す可能性がある。最後に、サンプルデータが全人口を真正に表していない場合、偏りは避けられない。

XAIは、AIシステムのブラックボックス的な意思決定がどのように行われるかを調査し、理解しようとする。AIシステムが特定の予測や決定を行った理由、他の選択肢を行わなかった理由、AIシステムが成功したか失敗したか、AIシステムが十分な信頼性を持って決定を行ったか、AIシステムがエラーを修正する方法など、重要な質問に答える。

 

説明可能、予測可能、追跡可能なAI

AIシステムの説明可能性を獲得する方法の1つは、説明可能な機械学習アルゴリズムを使用することである。たとえば、決定木、ベイジアン分類器などの、より単純な形式の機械学習や、決定の透明性と追跡可能性を持つアルゴリズムを使用する。こうしたアルゴリズムは、重要なAIシステムに必要な可視性を提供することができ、パフォーマンスや精度を大幅に犠牲にする必要はない。

深層学習やその他のより複雑なアルゴリズムアプローチに対する説明可能性の必要性に注目して、アメリカ国防総省の先端研究プロジェクト機関(DARPA)は、説明可能なAIソリューションを生み出すための研究プロジェクトを推進している。DARPAは、AIの説明可能性を3つの部分に分けて説明する。1つ目は、予測精度で、モデルは将来の意思決定を改善するために結論に到達する方法を説明することである。2つ目は、意思決定の理解と信頼で、人間のユーザーやオペレーターがAIシステムの行動を信頼できるようにすることである。3つ目は、AIシステムが行った行動の検査と追跡である。

追跡可能性は、人間がAIの意思決定ループに介入し、必要に応じてタスクを停止または制御できるようにする。AIシステムは、特定のタスクを実行したり、決定を下したりするだけでなく、特定の決定を下した理由とその根拠を明確に報告することが求められる。

アルゴリズムやXAIアプローチの標準化は現在不可能であるが、透明性のレベルまたは説明可能性のレベルの標準化は可能かもしれない。規格化団体は、エンドユーザーとテクノロジーベンダー間のコミュニケーションを促進するために、透明性の共通の標準的な理解に到達しようとしている。

政府、機関、企業、一般大衆がAIベースのシステムに依存するようになると、意思決定プロセスの透明性を高めることで信頼を獲得することが基本的なものとなる。XAIに専門的に焦点を当てた最初のグローバルカンファレンスである、国際合同会議:説明可能な人工知能ワークショップの開催は、XAIの時代が到来したことを示唆している。

バラクリシュナ、愛称はバリD.R.は、InfosysのAIおよび自動化の責任者であり、インフォシスの内部自動化と、製品を活用したクライアント向けの独立した自動化サービスを提供している。バリは25年以上インフォシスに在籍し、さまざまな地域や業界のセールス、プログラム管理、デリバリーの役割を果たしてきた。