ソートリーダー2 weeks ago
企業がAIガバナンスに価値観ベースのアプローチを採用すべき理由
2025年9月、国際的なAIガバナンスについて議論するため、国連加盟国が初めて一堂に会した。多くの国が翌年2月のデリーでのAIインパクト・サミットにも再び参加した。このイベントでは、AIガバナンスを中心とする2つの新たな機関が発足したが、せいぜい象徴的な成功に留まった。 国連の新たなメカニズムは合意形成を確保するために設計されたものであり、AIの軍事利用のような論争の的となる領域を避け、明確な資金源や執行権限を欠いている。これは経験豊富な観察者にとって驚くべきことではない。今日の国連には迅速に動く能力や決定への普遍的遵守を確保する能力が欠けており、真の変革を実現するには困難な場となっている。 これは確立されたパターンに合致する。AI規制に関する合意形成に向けた数年にわたる散発的な試みにもかかわらず、重要な国際合意はなく、個々の国やブロックが独自のルールを策定せざるを得ない空白地帯が生じている。しかし、AIが広く採用され、公衆から信頼され、持続的な社会的・経済的利益をもたらす方法で使用されることを望むなら、効果的なAIガバナンスは極めて重要である。 Make Do and Mend AIシステムを構築・運用するグローバル企業にとって、この共通の合意されたガバナンス・メカニズムの欠如は問題である。彼らは世界中でAIシステムを展開したいと考えているが、同じルールセットに従う管轄区域は二つとしてない。そのため、代わりに自社のシステム周辺に汎用的なガバナンス・フレームワークを作成し、その後、事業を展開するすべての国で現地の法律や規制に準拠するよう、ゼロから再構築することを余儀なくされている。このアプローチは膨大な追加作業を生み出し、AIイニシアチブのコストを増大させ遅延を招きやすくし、グローバル企業が規模の経済を実現し、効果的なツールを世界中のユーザーと共有する能力を弱めている。 しかし、別の選択肢がある。アプローチを効率化しようとする企業にとって、最良の選択肢は、これらの異なる地域に共通する倫理原則を考慮に入れ、個人の自由、プライバシー、セキュリティの保護という点で、どこにおいても高い基準を満たすことを保証するAIガバナンス・フレームワークを構築することかもしれない。この手法は、AI企業が自社の技術に対する公衆の信頼を高め、顧客基盤を強化し、AIが社会にもたらす潜在的利益を活用するための強力な方法である。 AIガバナンスの6つの主要な価値観 AIガバナンスに価値観ベースのアプローチを採用することに関心のある組織には、私たちが従っている6つの主要な価値観、すなわち、説明責任、説明可能性、透明性、公平性、セキュリティ、異議申し立て可能性を使用することを提案したい。 これらの価値観を選んだ理由は、AIシステムのライフサイクルの主要な領域をすべてカバーし、かつ、国際標準化機構のISO/IEC 42001や英国政府の人工知能プレイブックなど、AIに関連する様々な国際的・国家的な基準ですでに成文化されているからである。 最初に、説明責任とは、AIライフサイクルのあらゆる段階で誰が何に対して責任を負うかを知っていることを意味する。明確な所有権がなければ、最終的な責任を負う個人やチームがいないために、重要な管理が省略される可能性がある。組織は、AIシステムと主要な段階に対して、最高AI責任者などの上級で指名された所有者を割り当て、リスクベースのガバナンス・モデルを使用し、社内で開発されたツールと同様の精査をサードパーティ製ツールにも適用すべきである。これは、自社のシステムを理解するのと同様に、サプライヤーの条件、制限、責任を理解することを意味する。 経済協力開発機構(OECD)は、AIにおける説明責任の推進に関するガイダンスでこれをうまく捉えており、組織が「AIリスク管理プロセスをより広範な組織ガバナンスに組み込み、組織内およびAIバリューチェーン全体にわたってリスク管理文化を育成するメカニズム」を作成することを推奨している。 次に説明可能性である。組織は、AIシステムがどのようにして決定に至るかを示すことができなければならない。そのためには、意思決定を文書化し追跡するメカニズムと、システム設計、トレーニングデータ、意思決定プロセスの明確な記録が必要である。これらを合わせることで、チームはシステムの構想から導入に至るまでの情報の系譜を理解できるようになる。 公平性は、AIシステムが公平な結果を生み出し、既存のバイアスを複製または増幅しないことを保証することに焦点を当てる。意図的なチェックがなければ、システムは偏った結果をもたらすことで害を及ぼす可能性があり、これは採用、医療、刑事司法などの影響の大きい領域で特に問題となる。これを軽減するため、組織はバイアス検出措置を実施し、関連するグループ間で定期的に出力をレビューし、地域の非差別要件に対応できるガバナンス・フレームワークを設計すべきである。実際には、英国の平等法(2010年)やEU基本権憲章などの法律に基づく義務を含め、遭遇する可能性が高い最高の法的基準を満たすようにシステムを構築することを意味する。 透明性は、ユーザーと規制当局の両方に明確さをもたらすことに関する。人々は、AIがいつ使用されているか、意思決定においてどのような役割を果たしているか、そしてそれを支えるデータが何であるかを理解すべきである。実践的な出発点は、AIシステム全体で文書化を標準化し、モデルカードなどの内部ツールでサポートすることである。モデルカードとは、機械学習モデルに付属する短い文書で、モデルが使用されることを意図したコンテキスト、性能評価手順の詳細、その他の関連情報を説明するものである。透明性がなければ、ユーザーは不公平な結果に異議を唱えることができず、規制当局は効果的に介入できず、有害な影響が隠蔽される可能性がある。 セキュリティは、AIシステムを不正アクセス、改ざん、または意図しない動作から保護することを含む。セキュリティが弱い場合、AIは組織、ユーザー、およびそのデータを危険にさらし、財務的・評判的損害を被らせる可能性がある。組織は、性能と精度の閾値を定義し、現実的な条件下でシステムにストレステストを実施し、脆弱性を特定するためにレッドチームテストを組み込むべきである。 最後に、異議申し立て可能性は、人々がAIによる決定に異議を唱えたり、上訴したりするための明確でアクセス可能な方法を確保する。これがなければ、影響を受けたユーザーには頼る手段がなく、問題が表面化または解決されることはないかもしれない。組織は、使用時点で報告チャネルを提供し、苦情を管理する上級所有者を割り当て、必要に応じてシステムを一時停止、レビュー、または更新できるようにすべきである。 価値観ベースのフレームワークの利点は何か? AIガバナンスにこの価値観ベースのアプローチを採用するには、2つの強力な理由がある。第一に、AIシステムを構築・展開する者は、それによって影響を受ける人々や組織に対して倫理的責任を負っているからである。第二に、これが実際にAIが約束する利益を実現するためのより効果的な方法だからである。 AIシステムのユーザー(企業と個人の両方)は、個人データを悪用したり、不必要なリスクにさらしたりしないという暗黙の信頼をその創造者に置いている。組織がその信頼を裏切ると、それらのユーザーを維持することは非常に困難になる。結局のところ、人々がAIシステムを信頼し、それがもたらす明確な利益を認識できなければ、その導入には同意しないだろう。これはさらなる社会的・経済的分断を引き起こし、この技術が提示する多くの機会を逃すことになる。 一方、より緩やかなガバナンス要件を持つ地域を含め、どこでも価値観ベースのフレームワークを適用する企業は、顧客、投資家、規制当局に対して、基本的なコンプライアンス要求よりも高い基準を自らに課していることを示すことができる。これは信頼、エンゲージメント、そして最終的にはビジネスの成功を築く。 強力なAIガバナンスは、コンプライアンス負担ではなく、価値創造者である。それは企業が新製品を市場により迅速に投入し、リスクエクスポージャーを減らし、複数の市場にわたって自信を持ってソリューションを拡大することを可能にする。 マッキンゼーの「The...