ソートリーダー
業界が加速するAIの採用に備えるにつれ、倫理と責任への新たな焦点

By: Pandurang Kamat, CTO of Persistent Systems
人工知能(AI)は、コアとなる機械学習(ML)であり、機械がデータ入力に基づいてパフォーマンスを改善するプロセスです。今日存在する膨大な量のデータにより、AIは豊かな土壌で繁栄し、過去数年で急速に進化しています。AIの約束は、遠隔地の業界の技術者や経営者が、そのさまざまな応用について創造的に考えるようになりました。
産業革命以降、急速な技術進歩の時代は、熱狂と不安の両方で特徴づけられます。ワールドワイドウェブコンソーシアム(W3C)は、ウェブ開発業界の標準を作成するグループであり、「機械学習の適用はリスクをもたらし、損害をもたらす可能性がある」と指摘しています。つまり、バイアス、プライバシー、セキュリティ、持続可能性、全体的な説明責任などの分野でです。
「機械学習に対する倫理的なアプローチの需要は明確であり、市民社会からの活動、世界中で約100セットの倫理的なAI原則の出現、政府によるAIの規制への動きからも明らかです」とグループは書いています。「技術がそれらが運用される社会の価値観と一致していない場合、それらはそれらを損なう危険性があります。」
賢く選ぶ
表面的に見ると、速度と出力の向上は悪いことではないかもしれません。しかし、某些業界では、決定プロセスがアルゴリズムに任せられるべきではないと主張する人もいます。いくつかの大きな業界を見ると、機械のエラーにどれだけ脆弱であるか、そして責任あるAIがなぜ重要であるかがわかります。
銀行、金融サービス、保険(BFSI)
世界経済フォーラム(WEF)とデロイトは、BFSI企業でのAIの展開プロセスを調査し、「AIは膨大な情報から有用なビジネスインサイトを作成するのに役立つ」としながらも、「AIの異質性」が継続的な重大なリスクの源となることを発見しました。
「AIは人間の論理構造に従わない」と報告書には記載されています。「AIシステムは人間のアクターと同じタスクを与えられたときに人間とは異なる方法で動作し、さらに、AIシステムの自己学習の性質により、人間の入力なしに進化することができ、未知の変数に基づいて予期せぬ結果をもたらす可能性があります。」
責任あるAIの擁護者は、自動リスクスコアリング、信用、貸付決定などの分野で、機械学習が重大な問題を提起するという意見があります。これらの分野は、歴史的に特定の人種に有害でした。最近の研究では、AIベースの意思決定エンジンを使用する貸し手は、人種のある人々に住宅ローンを拒否する可能性が高かったことがわかりました。某些の場合、80%の黒人申請者が拒否される可能性があります。
ヘルスケア
数年前、アメリカ医師会雑誌(JAMA)は、ヘルスケアにおけるAIの採用を調査し、課題が多くあり、「現実的な期待、偏ったデータ、代表性のないデータ、公平性と 包摂性の不十分な優先順位、ヘルスケア格差の悪化のリスク、信頼の低さ、規制環境の不確実性」と指摘しました。
これは、まさに賛辞ではなく、ヘルスケアにおける責任あるAIのためのより高い基準があり、特にその生死に関わる可能性があるためです。全体として、ヘルスケア専門家は将来のAIについて楽観的ですが、慎重に臨んでおり、臨床現場でのAIの使用について他の専門家を教育し、すべての患者に利益をもたらす責任ある方法で進むためのガイドラインを作成することに焦点を当てています。
メディア
PwCによると、AIは2030年までに世界経済に15.7兆ドルの成長をもたらすと予測されています。しかし、Salesforceによると、顧客のうち48%のみが企業がAIを倫理的に使用することを信頼しており、65%がAIの非倫理的な使用について懸念しています。利益と信頼の交差点に、メディア企業があります。早期の採用者であり、巨大なリーチと影響力を持っています。AIは「セットして忘れる」タイプのアプリケーションではないため、メディア企業にとって責任は、コンテンツの制作のみではなく、展開後の継続的な監視にもあります。
広告はどのように配信され、パーソナライズされていますか。コンテンツはどのように特定のオーディエンスに届けられ、メッセージは何ですか。誰がAIに「どう」学習することを教えていますか。プライバシーを尊重しながら特定の消費者をターゲットにするにはどうすればよいのでしょうか。これらは、メディア企業が倫理と競争上の優位性のバランスをとるのに苦労する質問のいくつかです。
責任への対応
責任あるAIの開発における進歩は毎日明らかです。立法者は規制を起草し、消費者はより透明性を要求し、多くの企業はAIを適切に使用することを保証するために特定の部門を作成しています。企業には、責任あるAIフレームワークが必要です。倫理、透明性、説明責任、公平性、プライバシー、セキュリティを網羅したものです。議論と改革が続く中で、MITスローンマネジメントレビューとボストンコンサルティンググループによる最近の共同研究は、シンプルな全体的なガイダンスを提供しています。彼らは「責任あるAIリーダーになりたいのなら、責任ある会社になりましょう」と書いています。












