私達と接続

金融犯罪における AI ベースのシステムの偏りと公平性

ソートリーダー

金融犯罪における AI ベースのシステムの偏りと公平性

mm

公開済み

 on

金融犯罪との戦いに関しては、単に詐欺師やその他の悪者を阻止するという範囲を超えた課題が存在します。

導入されつつある最新の高度なテクノロジーの中には、規制の影響を受けることなく不正行為者とうまく戦うために、導入段階で考慮する必要がある固有の問題を抱えていることがよくあります。 不正行為の検出では、システムの重み付けがより高くなったり、データの特定のグループやカテゴリの表現が欠けている場合に、モデルの公平性とデータの偏りが発生する可能性があります。 理論的には、予測モデルにより、他の文化の姓と不正なアカウントが誤って関連付けられたり、特定の種類の金融活動について人口セグメント内のリスクが誤って減少したりする可能性があります。

偏った AI システムは、評判に影響が及ぶ可能性がある場合に深刻な脅威となる可能性があり、利用可能なデータが母集団や探索現象を代表していない場合に発生します。 このデータには、予測したい現象を適切に捉える変数が含まれていません。 あるいは、データには、文化的および個人的な経験によって継承され、意思決定の際に歪みをもたらす、人々のグループに対する偏見が含まれる可能性のある、人間が作成したコンテンツが含まれている可能性があります。 データは一見客観的であるように見えますが、依然として人間によって収集および分析されているため、バイアスが含まれている可能性があります。

AI システムにおける差別と不公平の危険性を是正したり、機械学習モデルとその使用を設計する際の公平性と偏見の軽減の問題を永続的に解決したりすることに関して特効薬はありませんが、これらの問題は社会と社会の両方で考慮される必要があります。ビジネス上の理由。

AI で正しいことを行う

AI ベースのシステムにおけるバイアスに対処することは正しいことであるだけでなく、ビジネスにとって賢明なことであり、ビジネス リーダーにとってのリスクは高くなります。 偏った AI システムは、機会、リソース、情報、またはサービスの品質を不当に割り当て、金融機関を誤った道に導く可能性があります。 これらは、軽蔑的または攻撃的であると認識された場合、市民的自由を侵害したり、個人の安全に悪影響を及ぼしたり、人の幸福に影響を与えたりする可能性さえあります。

企業にとって、AI バイアスの力とリスクを理解することは重要です。 金融機関には知られていないことも多いが、偏った AI ベースのシステムは、融資決定に人種や性別の偏見を暴露する有害なモデルやデータを使用している可能性がある。 名前や性別などの情報は、違法な方法で応募者を分類および特定するための代用となる可能性があります。 たとえバイアスが意図的ではなかったとしても、規制要件を遵守しないことで組織を危険にさらし、特定のグループの人々が不当に融資や信用枠を拒否される可能性があります。

現在、組織は AI システムのバイアスをうまく軽減するための要素を備えていません。 しかし、意思決定に情報を提供するために AI が企業全体に導入されることが増えているため、組織が道徳的な理由だけでなく、規制要件を遵守して収益を拡大するために偏見を軽減するよう努めることが重要です。

「公平性を意識した」文化と実装

公平性を意識した設計と実装に重点を置いたソリューションは、最も有益な結果をもたらします。 プロバイダーは、アルゴリズムの公平性の必要な要素として責任あるデータの取得、処理、管理を考慮する分析文化を持たなければなりません。AI プロジェクトの結果が偏ったデータセット、侵害されたデータセット、または歪んだデータセットによって生成された場合、影響を受ける当事者はデータセットから適切に保護されないからです。差別的被害。

データ サイエンス チームが留意しなければならないデータの公平性の要素は次のとおりです。

  • 代表性:状況に応じて、データサンプル内の不利な立場にあるグループまたは法的に保護されているグループの過小表示または過大表示により、トレーニングされたモデルの結果において弱い立場の当事者が組織的に不利になる可能性があります。 このような種類のサンプリングバイアスを回避するには、収集または取得されたデータとモデル化される基礎となる母集団との間の適合性を評価するための専門知識が極めて重要になります。 技術チームのメンバーは、サンプリングの表現上の欠陥を修正するための修復手段を提供する必要があります。
  • 目的に合ったものと十分性: 収集されたデータがプロジェクトの意図された目的に十分であるかどうかを理解することが重要です。 データセットが不十分であると、AI システムの望ましい目的と一致する正当な結果を生み出すために評価されるべき品質が公平に反映されていない可能性があります。 したがって、技術的およびポリシー的能力を持つプロジェクト チームのメンバーは、データ量が十分で目的に適合しているかどうかを協力して判断する必要があります。
  • ソースの完全性と測定精度:効果的なバイアスの軽減は、データの抽出と収集のプロセスの最初から始まります。 ソースと測定ツールの両方がデータセットに差別的な要素を導入する可能性があります。 差別的な非危害を確保するには、データ サンプルのソースの完全性が最適化されている必要があります。 これには、データ収集プロセスに適切で信頼できる公平な測定源と堅牢な収集方法が含まれていることを確保または確認することが含まれます。
  • 適時性と最新性: データセットに古いデータが含まれている場合、基礎となるデータ分布の変更により、トレーニングされたモデルの一般化可能性に悪影響を及ぼす可能性があります。 これらの分布ドリフトが社会関係やグループのダイナミクスの変化を反映しているとすると、基礎となる集団の実際の特徴に関する精度の損失により、AI システムにバイアスが導入される可能性があります。 差別的な結果を防ぐには、データセットのすべての要素の適時性と最新性を精査する必要があります。
  • 関連性、適切性、およびドメイン知識: 堅牢で偏りのない AI システムを構築するには、最も適切なソースとデータの種類を理解して使用することが重要です。 基礎となる人口分布とプロジェクトの予測目標についての確かな領域知識は、定義されたソリューションの合理的な解決に貢献する、最適に関連する測定入力を選択するのに役立ちます。 ドメインの専門家は、データ サイエンス チームと緊密に連携して、最適に適切なカテゴリと測定ソースの決定を支援する必要があります。

AI ベースのシステムは意思決定の自動化プロセスを支援し、コスト削減を実現しますが、AI をソリューションとして検討している金融機関は、偏った意思決定が行われないように注意する必要があります。 コンプライアンス リーダーは、データ サイエンス チームと足並みを揃えて、AI 機能に責任があり、効果的で、バイアスがないことを確認する必要があります。 責任ある AI を擁護する戦略を持つことは正しいことであり、それは将来の AI 規制への準拠への道を提供する可能性もあります。

Danny Butvinik は、次のチーフ データ サイエンティストです。 NICEアクティマイズ、技術的および専門的なリーダーシップを提供します。 ダニーは人工知能とデータ サイエンスの専門家であり、複数の科学論文や論文を執筆しています。 現在の役職では、データ サイエンスとソフトウェア開発における 15 年以上の研究、開発、管理の経験により、大規模なデータ サイエンティスト グループを管理し、イノベーションの成長と会社の知的財産に貢献しています。