思想领袖
金融犯罪中基于人工智能的系统的偏见和公平性

在打击金融犯罪方面,存在的挑战超出了仅仅阻止欺诈者或其他不良行为者的范围。
一些正在推出的最新、先进技术通常有其自身的具体问题,在采用阶段必须考虑这些问题,以成功打击欺诈者而不产生监管影响。 在欺诈检测中,当系统权重较大或缺乏某些数据组或类别的表示时,可能会出现模型公平性和数据偏差。 理论上,预测模型可能会错误地将其他文化的姓氏与欺诈账户联系起来,或者错误地降低人群中某些类型金融活动的风险。
当声誉可能受到影响时,以及当可用数据不能代表总体或探索现象时,有偏见的人工智能系统可能会构成严重威胁。 该数据不包括正确捕获我们想要预测的现象的变量。 或者,数据可能包括人类产生的内容,这些内容可能包含针对人群的偏见,这些偏见是由文化和个人经历继承的,导致决策时出现扭曲。 虽然数据乍一看似乎是客观的,但它仍然是由人类收集和分析的,因此可能存在偏见。
虽然在纠正人工智能系统中的歧视和不公平危险或永久解决构建机器学习模型和使用中的公平性和减少偏见问题方面没有灵丹妙药,但必须从社会和社会角度考虑这些问题。商业原因。
在人工智能领域做正确的事
解决基于人工智能的系统中的偏见不仅是正确的事情,而且对企业来说也是明智之举,而企业领导者的赌注很高。 有偏见的人工智能系统可能会不公平地分配机会、资源、信息或服务质量,从而导致金融机构走上错误的道路。 如果它们被视为贬低或冒犯,甚至有可能侵犯公民自由、损害个人安全或影响个人福祉。
对于企业来说,了解人工智能偏见的力量和风险非常重要。 尽管机构通常不知道,但带有偏见的人工智能系统可能会使用有害的模型或数据,将种族或性别偏见暴露到贷款决策中。 姓名和性别等信息可能会以非法方式对申请人进行分类和识别。 即使这种偏见是无意的,它仍然会使组织因不遵守监管要求而面临风险,并可能导致某些人群被不公平地拒绝贷款或信贷额度。
目前,组织还没有适当的措施来成功减少人工智能系统中的偏见。 但随着人工智能越来越多地在企业中部署来为决策提供信息,组织努力减少偏见至关重要,这不仅是出于道德原因,也是为了遵守监管要求并增加收入。
“公平意识”文化和实施
专注于公平意识设计和实施的解决方案将产生最有益的结果。 提供商应该拥有一种分析文化,将负责任的数据采集、处理和管理视为算法公平性的必要组成部分,因为如果人工智能项目的结果是由有偏见、受损或扭曲的数据集生成的,受影响的各方将无法得到充分的保护歧视性伤害。
这些是数据科学团队必须牢记的数据公平要素:
- 代表性:根据具体情况,数据样本中弱势群体或受法律保护群体的代表性不足或过多可能会导致训练模型的结果系统性地使弱势群体处于不利地位。 为了避免此类抽样偏差,领域专业知识对于评估收集或获取的数据与要建模的基础人群之间的契合度至关重要。 技术团队成员应提供补救方法来纠正抽样中的代表性缺陷。
- 适合目的和充分性: 了解收集的数据是否足以实现项目的预期目的非常重要。 数据集不足可能无法公平地反映应权衡的质量,以产生与人工智能系统的预期目的一致的合理结果。 因此,具有技术和政策能力的项目团队成员应合作确定数据量是否充足且适合目的。
- 源完整性和测量精度:有效的偏差缓解始于数据提取和收集过程的一开始。 测量的来源和工具都可能在数据集中引入歧视性因素。 为了确保歧视性无伤害,数据样本必须具有最佳的源完整性。 这涉及确保或确认数据收集过程涉及合适、可靠和公正的测量来源以及稳健的收集方法。
- 及时性和新近性:如果数据集包含过时的数据,那么底层数据分布的变化可能会对训练模型的泛化能力产生不利影响。 如果这些分布漂移反映了社会关系或群体动态的变化,那么基础人群实际特征的准确性损失可能会给人工智能系统带来偏见。 为了防止歧视性结果,应仔细审查数据集所有元素的及时性和新近度。
- 相关性、适当性和领域知识:理解和使用最合适的数据源和类型对于构建强大且公正的人工智能系统至关重要。 基础人口分布和项目预测目标的扎实领域知识有助于选择最佳相关测量输入,从而有助于确定解决方案的合理分辨率。 领域专家应与数据科学团队密切合作,以协助确定最合适的测量类别和来源。
虽然基于人工智能的系统有助于决策自动化流程并节省成本,但考虑将人工智能作为解决方案的金融机构必须保持警惕,以确保不会做出有偏见的决策。 合规领导者应该与他们的数据科学团队保持同步,以确认人工智能功能是负责任的、有效的并且没有偏见。 制定支持负责任的人工智能的战略是正确的做法,而且它还可能提供一条遵守未来人工智能法规的途径。












