人工知能
Google、透明性とデバッグ性を高める新たな説明可能なAIプログラムを開発

つい最近、Googleは、AIプログラムがどのように意思決定を行うかについての洞察を得ることを目的とした新しいクラウドプラットフォームの作成を発表しました。これにより、プログラムのデバッグが容易になり、透明性が高まります。The Registerが報じたように、このクラウドプラットフォームは「Explainable AI」と呼ばれ、GoogleがAIの説明可能性に投資する大きな試みを示しています。 人工ニューラルネットワークは、今日世界で使用されている主要なAIシステムの多く、おそらく大部分で採用されています。主要なAIアプリケーションを実行するニューラルネットワークは、非常に複雑で大規模になる可能性があり、システムの複雑さが増すにつれて、システムが特定の決定を下した理由を直感的に理解することがますます難しくなります。Googleがホワイトペーパーで説明しているように、AIシステムがより強力になるにつれて、それらはより複雑になり、したがってデバッグが難しくなります。これが起こると透明性も失われ、偏ったアルゴリズムを認識して対処することが困難になる可能性があります。 複雑なシステムの動作を駆動する推論が解釈しにくいという事実は、しばしば深刻な結果をもたらします。AIバイアスに対抗することを難しくするだけでなく、見せかけの相関関係と真に重要で興味深い相関関係を見分けることを非常に困難にする可能性があります。 多くの企業や研究グループが、AIの「ブラックボックス」問題にどのように対処し、AIが特定の決定を下した理由を適切に説明するシステムを作成するかを探求しています。GoogleのExplainable AIプラットフォームは、この課題に取り組むための同社自身の試みを表しています。Explainable AIは、3つの異なるツールで構成されています。最初のツールは、AIによってどの特徴が選択されたかを説明するシステムであり、特定の特徴が最終的な予測に与える影響の量を表す帰属スコアも表示します。このツールに関するGoogleのレポートでは、降雨量、現在の気温、曜日、開始時間などの変数に基づいて自転車の乗車時間を予測する例を示しています。ネットワークが決定を下した後、予測に最も影響を与えた特徴を表示するフィードバックが提供されます。 このツールは、画像データの場合、どのようにしてそのようなフィードバックを提供するのでしょうか?この場合、ツールは、レンダリングされた決定に最も重みを置いた画像の領域を強調表示するオーバーレイを生成します。 ツールキットにあるもう一つのツールは「What-If」ツールで、個々の属性が操作されるにつれてモデルのパフォーマンスに生じる可能性のある変動を表示します。最後に、最後のツールは、一貫したスケジュールで人間のレビューアーにサンプル結果を提供するように設定することができます。 GoogleのAIおよび機械学習チーフサイエンティストであるアンドリュー・ムーア博士は、このプロジェクトのインスピレーションについて説明しました。ムーア博士は、約5年前に学術界がAI使用の有害な副産物について懸念し始め、Googleは自社のシステムが倫理的な方法でのみ使用されていることを保証したいと考えたと説明しました。ムーア博士は、同社が建設作業員にヘルメットを着用していない人がいれば警告するコンピュータビジョンプログラムを設計しようとしていたが、監視が行き過ぎて非人間的になる可能性を懸念した事例について述べました。ムーア博士は、Googleが一般的な顔認識APIをリリースしないことを決定したのにも同様の理由があり、同社は自社の技術がどのように使用されるかをより管理し、倫理的な方法でのみ使用されていることを保証したいと考えたと述べました。 ムーア博士はまた、AIの決定が説明可能であることがなぜそれほど重要であるかを強調しました: 「安全上重要なシステムや、モデルが間違いを犯したと思われる場合に意図しない結果をもたらす可能性のある社会的に重要なものがある場合、それを診断できなければなりません。私たちは、説明可能性が何をでき、何ができないかを注意深く説明したいと考えています。それは万能薬ではありません。」












