ソートリーダー
業界が加速する AI 導入に向けて準備を整える中、倫理と責任に新たな焦点が当てられる

By: パンドゥラン・カマット氏、CTO 永続システム
その核となるのが人工知能(AI)です。 機械学習 (ML)、データ入力に基づいてマシンがパフォーマンスを向上させる方法を学習するプロセス。 今日の膨大な量の既存データは、AI が繁栄するための肥沃な土壌を持っていることを意味します。 ここ数年で猛烈なペースで加速している。 そして、AI の可能性により、広範な業界の技術者や経営幹部が AI のさまざまな応用について創造的に考えるようになりました。
産業革命以降、急速な技術進歩の時期には熱意と不安が等しく存在します。 の ワールドワイドウェブコンソーシアム Web 開発者の業界標準を作成する団体 (W3C) は、「機械学習の適用にはリスクがあり、害悪につながる可能性があるという認識が高まっている」と指摘しています。これには、偏見、プライバシー、セキュリティ、持続可能性、全体的な説明責任。
「市民社会の活動や、世界中で約 100 セットの倫理的な AI 原則が出現し、政府が世界中で AI を規制しようと動いていることから、ML に対する倫理的アプローチに対する明らかな需要があります。」 グループが書いた。 「テクノロジーがその社会の価値観と一致していなければ、社会を損なう危険があります。」
賢く選ぶ
表面的には、スピードと出力の向上がビジネスに悪影響を与えると主張するのは困難です。 しかし、特定の業界では、意思決定プロセスに多くの危機が迫っており、アルゴリズムに任せるべきではないと主張する人もいます。 いくつかの最大規模の業界を見てみると、機械エラーに対していかに脆弱であるか、そして責任ある AI がなぜそれほど重要であるかがわかります。
銀行、金融サービス、および保険(BFSI)
世界経済フォーラム (WEF) とデロイトは、BFSI 企業に AI を導入するプロセスを調査し、「AI は圧倒的な量の情報から有益なビジネス上の洞察を生み出すのに役立つ」ものの、「AI の異質さ」が継続的な深刻なリスク。
「AIは非人間的な方法で推論する」と報告書には書かれている。 「AI システムは人間の論理構造には従わず、同じタスクを与えられた人間とはまったく異なる動作をします。 さらに、AI システムの自己学習の性質により、人間の入力なしでも進化することができるため、未知の変数に基づいて予期しない結果が生じる可能性があります。」
責任ある AI の支持者らは、機械学習は自動リスク スコアリング、信用、融資決定などの点で深刻な問題を引き起こしており、これらすべては歴史的に特定の層に不利な要素であると主張しています。 最近の研究では、AI ベースの意思決定エンジンを使用している金融業者は、有色人種への住宅ローンを拒否する可能性が高いことが示されています。 黒人の応募者の80%は拒否される可能性が高い.
看護師
数年前、 アメリカ医師会雑誌(JAMA) ヘルスケアにおける AI の導入を調査し、「非現実的な期待、偏った代表的ではないデータ、公平性と包摂性の不適切な優先順位付け、医療格差を悪化させるリスク、信頼レベルの低さ、不確実性」など、多くの課題があることが判明しました。規制環境。」
必ずしも熱烈な支持というわけではありませんが、医療分野における責任ある AI のハードルは、特にその文字通りの生死を左右する可能性を考慮すると、より高いものとなっています。 全体として、医療専門家は AI の将来については楽観的ですが警戒しており、臨床現場での AI の使用法について他の医療従事者を教育し、すべての患者に利益をもたらす方法で責任を持って前進する方法に関するガイドラインを作成することに注力することを選択しています。
メディアの方
PwC は、AI が 15.7 年までに世界経済成長に 2030 兆 XNUMX 億ドルをもたらすと予測しています、 だけど セールスフォースによると 企業が AI を倫理的に使用することを信頼している顧客は半数 (48%) に満たず、65% が AI の非倫理的な使用を懸念しています。 利益と信頼の結びつきには、巨大なリーチと影響力を持つ早期導入企業であるメディア企業が存在します。 また、AI は「設定したらあとは忘れる」アプリケーションではないという事実に対する懸念もあります。つまり、メディア企業にとって、その責任はコンテンツの制作だけでなく、展開後の継続的な監視にもあります。
広告はどのように配信され、パーソナライズされているのでしょうか? コンテンツは特定の視聴者にどのように届いているのでしょうか?また、そのメッセージは何ですか? AI に学習の「方法」を教えているのは誰ですか? また、プライバシーを尊重しながら特定の消費者をターゲットにするにはどうすればよいでしょうか? これらは、倫理と競争力の獲得のバランスをとるメディア企業を悩ませる問題のほんの一部です。
責任への対応
責任ある AI の開発の進歩は日に日に明らかです。議員は規制の草案を作成し、消費者は透明性の向上を要求し、多くの企業は AI が適切に使用されることを保証する特定の部門を設立しています。 企業には 明確に定義された責任ある AI フレームワーク 倫理、透明性、説明責任、公平性、プライバシー、セキュリティをカバーします。 議論と改革が続くにつれ、 MIT Sloan Management Review とボストン コンサルティング グループによる最近の共同研究 は、いくつかの簡単な全体的なガイダンスを提供しています。彼らは、「責任ある AI リーダーになりたいなら、責任ある企業であることに焦点を当ててください。」と書いています。