Connect with us

カスタマーが信頼できるAIの構築方法

ソートリーダー

カスタマーが信頼できるAIの構築方法

mm

AIにおける信頼と透明性は、ビジネスを行う上で不可欠な要素となっている。AI関連の脅威が増大するにつれ、セキュリティ担当者は、外部からの攻撃から組織を保護するという緊急な課題とともに、内部でのAIの使用に対する責任ある慣行を確立することが求められている。

Vantaの2024年信頼状態レポートは、最近、この緊急性を明らかにし、AI駆動のマルウェア攻撃とアイデンティティ詐欺の驚くべき増加を示した。AIによってもたらされるリスクにもかかわらず、組織の40%のみが定期的なAIリスク評価を実施しており、36%のみが正式なAIポリシーを持っている。

AIのセキュリティ衛生以外に、組織のAIの使用に関する透明性を確立することが、ビジネスリーダーにとっての優先事項として浮上している。しかも、それは妥当なことである。一般的に責任とオープン性を優先する会社は、長期的な成功に向けてより好ましい立場にある。

透明性 = 良いビジネス

AIシステムは、巨大なデータセット、複雑なモデル、アルゴリズムを使用して動作し、内部の動作に関する可視性が欠けていることが多い。これにより、説明、防御、または挑戦が困難な結果につながることがあり、偏り、公平性、説明責任に関する懸念を引き起こす。AIを使用して意思決定を行うビジネスや公共機関では、この透明性の欠如により、利害関係者の信頼が損なわれ、運用上のリスクが生じ、規制の厳格さが増大する可能性がある。

透明性は、以下の理由により、交渉の余地がない。

  1. 信頼を構築する: 人々がAIの意思決定プロセスを理解すると、それを信頼し、受け入れる可能性が高くなる。
  2. 説明責任を高める: データ、アルゴリズム、意思決定プロセスに関する明確な文書化により、組織はミスや偏りを特定して修正することができる。
  3. コンプライアンスを確保する: 厳格な規制が存在する業界では、AIの意思決定を説明するために透明性は必須である。
  4. ユーザーが理解するのを支援する: 透明性により、AIがより扱いやすくなる。ユーザーがその動作を理解できる場合、結果を自信を持って解釈し、行動することができる。

これらすべての要素は、透明性がビジネスにとって良いという事実に結びつく。ガートナーの最近の調査によると、2026年までに、AIの透明性を重視する組織は、導入率が50%増加し、ビジネス成果が改善されることが示されている。MITスローンマネジメントレビューの調査結果も、AIの透明性に焦点を当てた企業は、顧客満足度で同業他社を32%上回っている

透明性のためのブループリントの作成

本質的に、AIの透明性とは、どのようにおよびなぜAIが意思決定を行うかを示すことで、明確性と信頼を生み出すことである。これは、複雑なプロセスを分解して、データサイエンティストから最前線の労働者まで、誰でも何が起こっているのかを理解できるようにすることである。透明性により、AIはブラックボックスではなく、信頼できるツールとなる。

  • リスク評価を優先する:どのようなAIプロジェクトでも開始する前に、組織と顧客に対する潜在的なリスクを特定する。リスクを事前に把握して対処することで、将来の予期せぬ結果を避けることができる。たとえば、AI駆動の信用スコアリングシステムを構築する銀行は、偏りを検出して予防するための安全対策を組み込む必要がある。
  • セキュリティとプライバシーを基盤から構築する:セキュリティとプライバシーは最初から優先事項であるべきである。フェデレーテッドラーニングや差分プライバシーなどの手法を使用して、機密データを保護する。AIシステムが進化するにつれて、これらの保護も進化させる必要がある。たとえば、ヘルスケア提供者が患者データを分析するためにAIを使用する場合、個々のレコードを保護しながら貴重な洞察を提供するための厳格なプライバシー対策が必要である。
  • データアクセスをセキュアな統合で制御する:誰が、また何がデータにアクセスできるかを慎重に管理する。顧客データを直接AIモデルにフィードするのではなく、APIや正式なデータ処理契約(DPA)などのセキュアな統合を使用して、すべてを管理下に保つ。こうした保証により、データがセキュアであり、AIが必要なパフォーマンスを発揮することが保証される。
  • AIの意思決定を透明性と説明責任を持たせる透明性は信頼のためには何よりも重要である。チームは、AIがどのように意思決定を行うかを理解でき、それを顧客やパートナーに明確に伝えることができるはずである。説明可能なAI(XAI)や解釈可能なモデルなどのツールは、複雑な出力を明確で理解しやすい洞察に翻訳するのに役立つ。
  • 顧客をコントロール下に置く:顧客は、AIが使用されているかどうか、またそれが自分にどのような影響を与えるかを知る権利がある。インフォームドコンセントモデル(顧客がAI機能の使用を選択または拒否できるモデル)を採用することで、顧客を運転席に座らせることができる。設定へのアクセスを容易にすることで、顧客は自分のデータをコントロール下に置いていると感じ、信頼を築き、AI戦略を顧客の期待と一致させることができる。
  • AIを継続的に監視および監査する:AIは、一度完了したプロジェクトではない。定期的なチェックが必要である。頻繁なリスク評価、監査、監視を実施して、システムがコンプライアンスを維持し、効果的に機能することを確認する。NIST AI RMF、ISO 42001、またはEU AI法などの業界基準に準拠することで、信頼性と説明責任を強化することができる。
  • 内部AIテストで先導する:顧客にAIを信頼させるのであれば、まず自分でそれを信頼する必要がある。自分のAIシステムを内部で使用してテストし、問題を早期に発見して改良を加えることで、ユーザーに公開する前に品質への取り組みを示すことができる。また、責任あるAI開発と継続的な改善の文化も生み出すことができる。

信頼は一晩で築かれるものではないが、透明性が基盤となる。明確で説明可能で説明責任のあるAIの慣行を採用することで、組織はすべての利害関係者のために機能するシステムを作成でき、信頼を築き、リスクを軽減し、より良い成果をもたらすことができる。AIが理解されれば、それは信頼される。信頼されれば、エンジンとなる。

Iccha Sethiは、Vantaのエンジニアリング担当副社長であり、セキュリティとコンプライアンスの自動化の強化に焦点を当てたイニシアチブをリードしています。 以前は、GitHubでエンジニアリングリーダーを務め、Actions、Hosted Runners、Codespaces、Packages、Pages、npmを含むマルチ製品ポートフォリオを担当していました。 Icchaは、InVision、Atlassian、Rackspacを含む、大小さまざまな企業でプリンシパルエンジニアリング役職を歴任しています。