ソートリーダー
説明可能性は、すべての業界のAIの問題:透明性の欠如に対処できる

By: ミゲル・ジェット、VP of R&D Speech、Rev。
AIの初期段階では、新しさの功名で休んでいたかもしれない。機械学習がゆっくり学習し、AIの計算が平均的な消費者にとって理解不能な不透明なプロセスを維持することは、許容されていた。だが、それは変化している。ヘルスケア、金融、刑事司法システムなどの多くの業界が、人々の生活に実際的な影響を与える方法でAIを利用し始めているため、多くの人々は、アルゴリズムがどのように使用されているか、データがどのように取得されているか、そしてその能力がどの程度正確であるかを知りたいと思っている。企業が市場でのイノベーションの最前線に留まるためには、顧客が信頼するAIに頼る必要がある。AIの説明可能性は、その関係を深めるための重要な要素である。
AIの説明可能性は、標準的なAI手順と異なり、人々が機械学習アルゴリズムがどのように出力を作成するかを理解する方法を提供する。説明可能なAIは、潜在的な結果と短所を人々に提供するシステムである。人々が公平性、説明責任、プライバシーの尊重という人間の願望を満たすことができる機械学習システムである。説明可能なAIは、企業が消費者との信頼を築くために不可欠である。
AIが拡大するにつれて、AIプロバイダーは、ブラックボックスは機能しないことを理解する必要がある。ブラックボックスモデルは、データから直接作成され、時にはアルゴリズムを作成した開発者自身が、機械が学習した習慣を駆り立てたものを特定できない。だが、良心的な消費者は、説明責任を負うことができないほど不透明なものに従事したくない。人々は、入力の謎や出力の制御なしに、AIアルゴリズムが特定の結果に到達する方法を知りたいと思っている。特に、AIの誤計算は、機械の偏見によるものであることが多い。AIがさらに進化するにつれて、人々は、アルゴリズムが特定の結果に到達した方法を理解するために、機械学習プロセスへのアクセスを求めている。各業界のリーダーは、人々がこのアクセスを必要とするのではなく、遅かれ早かれ、透明性の必要なレベルとして要求することを理解する必要がある。
ASRシステム(音声認識システム)である、ボイスエナブルドアシスタント、トランスクリプションテクノロジー、人間の音声をテキストに変換する他のサービスは、特に偏見に悩まされている。サービスが安全対策に使用される場合、発音、アクセント、年齢、背景などの違いによるミスは、深刻なミスになる可能性があるため、この問題は真剣に取り組む必要がある。ASRは、警察のボディカメラで、自動的に記録してトランスクリプションするために使用でき、正確にトランスクリプションされた場合、人命を救う可能性のある記録を保持できる。説明可能性の実践は、AIが単に購入したデータセットに頼るのではなく、エラーが存在する可能性のある入力オーディオの特性を理解することを要求する。音響プロファイルは何か。背景にノイズはあるか。話者は英語を第一言語としない国から、またはAIがまだ学習していない語彙を使用する世代からであるか。機械学習は、これらの変数を解決するデータを収集することで、より迅速に学習する必要がある。
必要性は明らかになってきているが、この方法論を実装するための道は常に簡単な解決策ではない。伝統的な解決策は、より多くのデータを追加することであるが、特に企業が使用する購入データセットが本質的に偏っている場合、より洗練された解決策が必要になる。これは、エンドツーエンドのモデルが複雑である性質のため、特定の決定を説明するのが難しいからである。ただし、人々がAIに信頼を失った理由を尋ねることで、始めることができる。
避けては通れないことであるが、AIは間違いを犯す。企業は、潜在的な短所を認識し、問題が発生している場所を特定し、より強力なAIモデルを構築するための継続的な解決策を作成するモデルを構築する必要がある:
- 何かが間違ったとき、開発者は何が起こったかを説明し、改善計画を開発して、将来の同様のミスを減らす必要がある。
- 機械が本当に正しいかどうかを知るには、科学者は、AIが短所を学び、進化するためのフィードバックループを作成する必要がある。
- ASRが信頼を築きながらまだ改善されている間、信頼を築く別の方法は、信頼度スコアを提供するシステムを作成し、AIが信頼度が低い理由を示すことである。例えば、企業は通常、0から100のスコアを生成して、独自のAIの不完全性を反映し、顧客との透明性を確立する。将来的には、システムは、認識されたノイズレベルや理解度の低いアクセントなどのオーディオのメタデータを提供することで、オーディオがなぜ挑戦的であったかについての事後的な説明を提供する可能性がある。
追加の透明性は、AIのトレーニングとパフォーマンスに対する人間の監視を改善することになる。私たちが改善する必要がある場所についてオープンであるほど、改善に対して責任を負うことになる。例えば、研究者は、問題を軽減するために、誤ったテキストが出力された理由を知りたいと思うかもしれない。一方、トランスクリプション作成者は、ASRが入力を誤って解釈した理由の証拠を求め、有効性を評価するのに役立つ。ループに人間を保持することで、AIがチェックされていないときに発生する最も明らかな問題のいくつかを軽減できる。さらに、AIがエラーを検出して改善し、最終的にリアルタイムでそれ自身を修正するために必要な時間を短縮できる。
AIは、人々の生活を改善する能力を持っているが、それは人間が適切に構築した場合にのみである。私たちには、これらのシステムに加えて、イノベーションの背後にある人々にも責任を負わせる必要がある。将来のAIシステムは、人々によって設定された原則に従う必要があり、そしてその時まで、私たちに信頼できるシステムを持つことはできない。基礎を築き、それらの原則を今、まだ人間が自分自身に奉仕している間に努める時である。












