人工知能
2023年にAI監査を実施する方法

AI監査とは、AIシステムが期待どおりに動作し、偏見や差別がないことを確認し、倫理および法的基準に準拠していることを確認することを指します。AIは過去10年で指数関数的に成長しました。したがって、AI関連のリスクは組織にとって懸念事項となりました。エロン・マスクは次のように述べています:
「AIは、規制において反応的なのではなく、積極的なアプローチが必要な稀なケースです。」
組織は、AIを使用する従業員のためのガバナンス、リスク評価、コントロール戦略を開発する必要があります。AIの説明責任は、警察の配置や採用、不採用などの重要な意思決定において非常に重要です。
この記事では、AI監査、AI監査のフレームワークと規制、AIアプリケーションの監査チェックリストについて概要を示します。
考慮すべき要素
- コンプライアンス: 法的、規制的、倫理的、社会的な考慮事項との関連性に関するAIシステムのコンプライアンスに関するリスク評価。
- テクノロジー: 機械学習、セキュリティ基準、モデル性能などの技術的能力に関するリスク評価。
AIシステムの監査における課題
- 偏見: AIシステムは、トレーニングデータの偏見を増幅させ、不公平な決定を下す可能性があります。スタンフォード大学のHuman Centered AI (HAI)研究所は、7万1000ドルのイノベーション・チャレンジを立ち上げ、AIシステムでの差別を禁止することを目的としました。
- 複雑性: 特にディープラーニングを使用するAIシステムは複雑で、解釈可能性が低いです。
AI監査の既存の規制とフレームワーク
規制とフレームワークは、AIの監査の指針となります。以下に、重要な監査フレームワークと規制について説明します。
監査フレームワーク
- COBITフレームワーク (Control Objectives for Information and related Technology): 企業のITガバナンスと管理のフレームワークです。
- IIA (Institute of Internal Auditors) のAI監査フレームワーク: このAIフレームワークは、AIシステムの設計、開発、動作と、組織の目標との整合性を評価することを目的としています。IIAのAI監査フレームワークの3つの主要なコンポーネントは、戦略、ガバナンス、人間要因です。7つの要素があります。
- サイバーレジリエンス
- AIコンペテンシー
- データ品質
- データアーキテクチャとインフラストラクチャ
- パフォーマンス測定
- 倫理
- ブラックボックス
- COSO ERMフレームワーク: このフレームワークは、組織のAIシステムのリスク評価のための枠組みを提供します。内部監査の5つのコンポーネントがあります。
- 内部環境: 組織のガバナンスと管理がAIのリスクを管理していることを確認する
- 目標設定: リスク戦略を作成するために利害関係者と協力する
- イベントの特定: 偏見、データの違反などのAIシステムのリスクを特定する
- リスク評価: リスクの影響は何ですか?
- リスク対応: サブオプティマルなデータ品質などのリスク状況に対して組織はどのように対応するのでしょうか?
規制
一般データ保護規則 (GDPR) は、EU規制であり、組織に個人データの使用に関する義務を課します。7つの原則があります:
- 合法性、公平性、透明性: 個人データの処理は法律に従わなければなりません
- 目的制限: 特定の目的のみのためにデータを使用する
- データ最小化: 個人データは適切で限定されていなければなりません
- 正確性: データは正確で最新であるべきです
- 保管制限: 必要としない個人データを保管しないでください
- 完全性と機密性: 個人データはセキュアに処理されなければなりません
- 責任: コントローラーは、コンプライアンスに従ってデータを処理する責任があります
AI監査のチェックリスト
データソース
AIシステムの監査では、データソースの特定と検証が第一の考慮事項です。監査員は、データの品質と、会社がデータを使用できるかどうかを確認します。
クロスバリデーション
モデルが適切にクロスバリデーションされていることを確認することは、監査員のチェックリストの1つです。検証データはトレーニングに使用してはならず、検証テクニックはモデルの汎用性を保証する必要があります。
セキュアなホスティング
AIシステムは、場合によっては個人データを使用します。情報セキュリティ要件、たとえばOWASP (Open Web Application Security Project) ガイドラインを満たしていることを確認することが重要です。
解釈可能なAI
解釈可能なAIとは、AIシステムが下した決定と、それに影響を与える要因を解釈し、理解することを指します。監査員は、LIMEやSHAPなどのテクニックを使用して、モデルが十分に解釈可能かどうかを確認します。
モデルの出力
公平性は、監査員がモデル出力で最初に確認することです。モデル出力は、性別、人種、宗教などの変数を変更しても一貫性を保たなければなりません。また、適切なスコアリング方法を使用した予測の品質も評価されます。
社会的フィードバック
AI監査は継続的なプロセスです。展開後、監査員はAIシステムの社会的影響を確認する必要があります。AIシステムとリスク戦略は、フィードバック、使用、結果、影響などの要素に基づいて変更され、監査される必要があります。
AIパイプラインとアプリケーションの監査を行う会社
AIを監査する5つの主要な会社は以下のとおりです:
- Deloitte: Deloitteは世界最大のプロフェッショナルサービス会社であり、監査、税務、財務アドバイザリーサービスを提供します。Deloitteは、RPA、AI、分析を使用して、組織がAIシステムのリスク評価を支援します。
- PwC: PwCは収入別で2番目のプロフェッショナルサービスネットワークです。組織がAIシステムの説明責任、信頼性、透明性を確保するための監査方法論を開発しています。
- EY: 2022年、EYはAIを活用したテクノロジープラットフォームに10億ドルの投資を発表し、高品質の監査サービスを提供します。AIを活用した企業は、AIシステムの監査に精通しています。
- KPMG: KPMGは4番目の会計サービス会社です。KPMGは、AIガバナンス、リスク評価、コントロールに関するカスタマイズされたサービスを提供します。
- Grant Thronton: クライアントがAIの展開とAIの倫理および規制へのコンプライアンスに関連するリスクを管理するのを支援します。
AIシステムの監査の利点
- リスク管理: 監査により、AIシステムに関連するリスクを防止または軽減できます。
- 透明性: 監査により、AIアプリケーションが偏見や差別から自由であることを保証できます。
- コンプライアンス: AIアプリケーションの監査により、システムが法的および規制上のコンプライアンスを満たしていることを確認できます。
AI監査: 将来の展開
組織、規制当局、監査員は、AIの進歩に追随し、潜在的な脅威を認識し、規制、フレームワーク、戦略を頻繁に改訂して、AIの公正でリスクのない倫理的な使用を確保する必要があります。
2021年、193のUNESCO加盟国は、AIの倫理に関する世界的な合意を採択しました。AIは、絶えず進化しているエコシステムです。
もっとAI関連のコンテンツを知りたいですか? Unite.AIを訪問してください。












