ソートリーダー
ジェネレーティブAIの進歩により、責任あるAIに取り組む時期は今

2022年、企業は平均して3.8のAIモデルを本稼働にしていた。現在、7つの企業のうち10社がジェネレーティブAIを実験しており、これにより将来の数年間で本稼働中のAIモデルの数が急増することになる。結果として、業界では責任あるAIについての議論がより緊急性を持つようになった。
良いニュースは、組織の半分以上がすでにAI倫理を推進していることである。ただし、約20%の企業のみが、フレームワーク、ガバナンス、ガードレールを備えた包括的なプログラムを実装しており、AIモデルの開発を監督し、リスクを事前に特定して軽減することができる。AIの開発が急速に進んでいることを考えると、リーダーは今、フレームワークと成熟したプロセスを実装するために前進する必要がある。世界中で規制が導入されていて、すでに2つの組織のうち1つが責任あるAIの失敗を経験している。
責任あるAIの実装における課題
責任あるAIは、最大20の異なるビジネス機能をカバーするため、プロセスと意思決定の複雑性が増大する。責任あるAIチームは、リーダーシップ、ビジネスオーナー、データ、AI、ITチーム、およびパートナーと協力して、次のタスクを行う必要がある:
- 偏見のない公平なAIソリューションを構築する: チームとパートナーは、探索的データ分析などのさまざまなテクニックを使用して、ソリューションを開発する前に潜在的な偏見を特定して軽減することができる。チームとパートナーは、事前処理、アルゴリズム設計、ポスト処理で使用されるデータをレビューして、代表的かつバランスのとれたものであることを確認することもできる。さらに、グループと個人の公平性テクニックを使用して、アルゴリズムがさまざまなグループと個人を公平に扱うことを確認することができる。反事実的公平性アプローチは、特定の要因を変更した場合の結果をモデル化することで、偏見を特定して対処するのに役立つ。
- AIの透明性と説明可能性を促進する: AIの透明性とは、AIモデルがどのように機能し、決定を下すかを理解することが容易であることを意味する。説明可能性とは、これらの決定を非技術的な用語で他の人に簡単に伝えることができることを意味する。共通の用語を使用し、利害関係者との定期的な議論を実施し、AIの認識と継続的な学習の文化を生み出すことで、これらの目標を達成することができる。
- データのプライバシーとセキュリティを確保する: AIモデルは大量のデータを使用する。企業は、モデルにフィードするために第一者データと第三者データを活用している。また、プライバシー保護学習テクニック、たとえば合成データの作成を使用してスパース性の問題を克服する。リーダーとチームは、データのプライバシーとセキュリティの安全対策をレビューして進化させる必要があるため、機密性と敏感性の高いデータが新しい方法で使用される場合でも保護されることを確認する必要がある。たとえば、合成データは顧客の重要な特性を模倣する必要があるが、個人に戻ることはできない。
- ガバナンスを実施する: ガバナンスは、企業のAI成熟度に基づいて異なる。ただし、企業は最初からAIの原則とポリシーを設定する必要がある。AIモデルの使用が増加するにつれて、AIオフィサーを任命し、フレームワークを実装し、説明責任と報告メカニズムを作成し、フィードバックループと継続的な改善プログラムを開発することができる。
責任あるAIプログラムの重要な要素
責任あるAIのリーダー企業と他の企業を区別するものは何か。彼らは:
- AIのビジョンと目標を作成する: リーダーは、企業、顧客、社会に利益をもたらすAIのビジョンと目標をコミュニケーションする。
- 期待を設定する: 上級リーダーは、チームに責任あるAIソリューションを構築するための適切な期待を設定する。完成したソリューションに合わせて調整するのではなく、基盤から責任あるAIソリューションを構築する。
- フレームワークとプロセスを実装する: パートナーは、透明性のあるプロセスとガードレールを備えた責任あるAIフレームワークを提供する。たとえば、データプライバシー、公平性、偏見チェックは、初期のデータ準備、モデル開発、継続的な監視に組み込まれる必要がある。
- ドメイン、業界、AIスキルのアクセス: チームは、ビジネスの競争力を高めるためにAIソリューションの革新を加速したい。パートナーは、データとAI戦略の設定と実行、顧客分析、市場技術、サプライチェーンなどのドメインと業界のスキルを提供できる。また、責任あるAIフレームワークとプロセスを使用して、大規模言語モデル(LLM)エンジニアリング、開発、運用、プラットフォームエンジニアリングなどのフルスペクトルAIスキルを提供することができる。
- アクセラレータへのアクセス: パートナーは、AIエコシステムへのアクセスを提供し、責任ある従来のAIおよびジェネレーティブAIのパイロットプロジェクトの開発時間を最大50%短縮する。企業は、市場競争力を高める垂直ソリューションを獲得する。
- チームの採用と説明責任を確保する: 企業とパートナーのチームは、新しいポリシーとプロセスについてトレーニングを受ける。さらに、企業は、主要なポリシーへのコンプライアンスについてチームを監査する。
- 結果を数量化するために適切なメトリックを使用する: リーダーとチームは、ベンチマークとその他のメトリックを使用して、責任あるAIがビジネス価値にどのように貢献しているかを示す。利害関係者の関与を高く維持するために。
- AIシステムを監視する: パートナーは、モデル監視サービスを提供し、問題を事前に解決し、信頼できる結果を提供することを保証する。
責任あるAIの計画を立てる
あなたの会社がAIの革新を加速している場合、責任あるAIプログラムが必要になる可能性が高い。リスクを軽減し、プログラムとプロセスを成熟させ、利害関係者への説明責任を示すために、積極的に行動する必要がある。
パートナーは、責任あるAIでビジネス価値を解放するために必要なスキルセット、フレームワーク、ツール、パートナーシップを提供できる。偏見のない公平なモデルを展開し、コントロールを実施し、会社の要件へのコンプライアンスを高め、予定されている規制への準備を整える。












