ソートリーダー
説明可能性はあらゆる業界の AI 問題に対処できる: 透明性の欠如
投稿者: Migüel Jetté、R&D スピーチ担当副社長、 回転.
AI はその初期段階では、新しさの栄光に安住することができたかもしれません。機械学習がゆっくりと学習し、平均的な消費者が AI の計算を理解できない不透明なプロセスを維持することは問題ありませんでした。それは変わりつつあります。ヘルスケア、金融、刑事司法制度など、より多くの業界が人々の生活に実際の影響を与える可能性のある方法で AI を活用し始めるにつれ、より多くの人々がアルゴリズムがどのように使用され、データがどのように調達され、どのように活用されているかを知りたいと考えています。その機能がどれほど正確であるか。企業が市場でイノベーションの最前線に留まりたいのであれば、視聴者が信頼できる AI に依存する必要があります。 AI の説明可能性は、その関係を深めるための重要な要素です。
AI の説明可能性は、機械学習アルゴリズムが出力をどのように作成するかを人々に理解する方法を提供するため、標準的な AI 手順とは異なります。 Explainable AI は人々に潜在的な結果を提供できるシステムです & 欠点。 これは、公平性、説明責任、プライバシーの尊重というまさに人間の欲求を満たすことができる機械学習システムです。 企業が消費者との信頼を築くには、説明可能な AI が不可欠です。
AI が拡大する一方で、AI プロバイダーはブラック ボックスでは拡張できないことを理解する必要があります。 ブラック ボックス モデルはデータから直接作成されるため、アルゴリズムを作成した開発者ですら、マシンの学習習慣の原因を特定できないことがよくあります。 しかし、良心的な消費者は、責任を負うことができないほど不可解なものとは関わりたくありません。 人々は、特に AI の計算ミスがマシンのバイアスによることが多い場合に、ソース入力と制御された出力の謎を避けて、AI アルゴリズムがどのようにして特定の結果に到達するのかを知りたいと考えています。 AI がより高度になるにつれて、人々はアルゴリズムがどのように特定の結果に至ったのかを理解するために機械学習プロセスにアクセスしたいと考えています。 あらゆる業界のリーダーは、人々は遅かれ早かれこのアクセスを好まず、必要なレベルの透明性としてそれを要求するようになるということを理解する必要があります。
音声対応アシスタント、文字起こし技術、人間の音声をテキストに変換するその他のサービスなどの ASR システムは、特に重要です。 偏見に悩まされる。 安全対策としてサービスを利用する場合、なまりや年齢、背景などによる間違いは重大な間違いとなる可能性があるため、この問題を真剣に受け止める必要があります。 ASR は、たとえば警察のボディカメラで効果的に使用でき、やり取りを自動的に記録して文字に起こすことができ、正確に文字に起こされれば命を救う可能性のある記録を保持できます。 説明可能性を実践するには、AI が購入したデータセットに依存するだけでなく、エラーが存在する場合にその原因となる可能性のある受信音声の特性を理解しようとする必要があります。 音響プロファイルとは何ですか? 背景にノイズはありますか? 話者は非英語第一国の出身ですか、それとも AI がまだ学習していない語彙を使用する世代ですか? 機械学習は、より迅速に学習するために積極的に取り組む必要があり、これらの変数に対処できるデータを収集することから始めることができます。
必要性は明らかになりつつありますが、この方法論を実装するための道のりには、必ずしも簡単な解決策があるとは限りません。 この問題に対する従来の解決策はデータを追加することですが、特に多くの企業が使用する購入したデータセットが本質的に偏っている場合には、より洗練されたソリューションが必要になります。 これは歴史的に、AI によって下された特定の決定を説明することが困難であり、エンドツーエンド モデルの複雑さの性質によるものであるためです。 しかし、私たちは今、そもそも人々がどのようにして AI に対する信頼を失ったのかを問うことから始めることができます。
AIは必然的に間違いを犯します。 企業は、潜在的な欠点を認識したモデルを構築し、問題がいつどこで発生しているかを特定し、より強力な AI モデルを構築するための継続的なソリューションを作成する必要があります。
- 何か問題が発生した場合、開発者は何が起こったのかを説明する必要があります。 当面の計画を立てる 将来の同様の間違いを減らすためにモデルを改善するため。
- 機械がそれが正しいか間違っているかを実際に知るためには、科学者は次のことを行う必要があります。 フィードバックループを作る AIが自分の欠点を学び、進化できるように。
- AI がまだ改善されている間に ASR が信頼を構築するもう XNUMX つの方法は、次のとおりです。 信頼スコアを提供できるシステムを作成する、そしてAIが自信を持てない理由についての理由を提示します。 たとえば、企業は通常、自社の AI の不完全性を反映し、顧客との透明性を確立するために、100 から XNUMX までのスコアを生成します。 将来的には、システムは、知覚されるノイズレベルやあまり理解されていないアクセントなど、音声に関するより多くのメタデータを提供することによって、音声が困難であった理由について事後的な説明を提供する可能性があります。
透明性が高まると、AI のトレーニングとパフォーマンスに対する人間の監視が強化されます。 改善が必要な点についてオープンであればあるほど、それらの改善に対して行動を起こす責任が増します。 たとえば、研究者は問題を軽減するために誤ったテキストが出力された理由を知りたい場合がありますが、転写担当者は有効性の評価に役立つように、ASR が入力を誤って解釈した理由に関する証拠が必要な場合があります。 人間が常に最新情報を把握できるようにすることで、AI がチェックされない場合に発生する最も明白な問題のいくつかを軽減できます。 また、AI がエラーを見つけて改善し、最終的にはリアルタイムで修正するのに必要な時間を短縮することもできます。
AI は人々の生活を改善する能力を持っていますが、それは人間が適切に生産できるように構築した場合に限られます。 私たちはこれらのシステムだけでなく、イノベーションの背後にある人々にも責任を負わせる必要があります。 将来の AI システムは、人々が定めた原則に従うことが期待されており、それまでの間、人々が信頼するシステムが得られません。 最終的に自分自身に奉仕するのは人間である今こそ、基礎を築き、その原則を目指して努力するときです。