思想领袖
人工智能与金融犯罪预防:银行为何需要采取平衡方法

人工智能对于银行来说是一枚两面硬币:虽然它为更高效的运营释放了许多可能性,但它也可能带来外部和内部风险。
金融犯罪分子正在利用该技术来生产 深度视频、声音和虚假文件,这些文件可以绕过计算机和人类的检测,或增强电子邮件欺诈活动。根据最近的一项研究,仅在美国,生成式人工智能预计将使欺诈损失加速到年增长率 32%,到 40 年达到 2027 亿美元 德勤报告.
那么,银行的应对措施或许应该是用更好的工具武装自己,利用人工智能预防金融犯罪。事实上,金融机构已经开始在反金融犯罪 (AFC) 工作中部署人工智能——监控交易、生成可疑活动报告、自动检测欺诈等。这些措施有可能加快流程并提高准确性。
问题在于银行没有在人工智能的实施与人类判断之间取得平衡。如果没有人类参与,人工智能的采用可能会影响合规性、偏见和对新威胁的适应性。
我们认为,金融领域采用人工智能应采取谨慎、混合的方法,这种方法仍需要人工投入。
基于规则的 AFC 系统和人工智能驱动的 AFC 系统之间的区别
传统上,AFC(尤其是反洗钱 (AML) 系统)遵循合规团队根据法规制定的固定规则。例如,在交易监控方面,这些规则是根据特定的预定义标准(例如交易金额阈值或地理风险因素)实施的,以标记交易。
人工智能提供了一种筛查金融犯罪风险的新方法。机器学习模型可用于根据一系列不断发展的数据集检测可疑模式。该系统分析交易、历史数据、客户行为和上下文数据以监控任何可疑情况,同时随着时间的推移进行学习,提供自适应且可能更有效的犯罪监控。
然而,虽然基于规则的系统是可预测且易于审计的,但人工智能驱动的系统由于决策过程不透明而引入了复杂的“黑匣子”元素。由于涉及的因素太多,追踪人工智能系统将某些行为标记为可疑的原因更加困难。这可能会导致人工智能根据过时的标准得出某种结论,或提供事实上错误的见解,而这些见解无法立即被发现。这还可能给金融机构的监管合规带来问题。
可能的监管挑战
金融机构必须遵守严格的监管标准,例如欧盟的 急性肺病 和美国 银行保密法,要求决策清晰、可追溯。人工智能系统,尤其是深度学习模型,可能难以解释。
为了确保在采用人工智能的同时承担责任,银行需要仔细规划、全面测试、专门的合规框架和人工监督。例如,人工可以通过解释标记交易背后的原因来验证自动化决策,使其对监管机构而言是可解释和可辩护的。
金融机构也面临着越来越大的压力,需要使用 可解释的AI (XAI)工具使监管者和审计人员能够理解人工智能驱动的决策。XAI 是一种使人类能够理解人工智能系统的输出及其底层决策的过程。
整体视野需要人类判断
采用人工智能不能让步于对自动化系统的自满。人类分析师能够提供人工智能所缺乏的背景和判断力,从而能够在复杂或模糊的案件中做出细致入微的决策,这在 AFC 调查中仍然至关重要。
依赖人工智能的风险包括可能出现错误(例如误报、漏报)和偏见。如果模型没有经过良好调整,或者使用有偏见的数据进行训练,人工智能很容易出现误报。虽然人类也容易产生偏见,但人工智能的额外风险在于很难在系统内识别偏见。
此外,AI 模型依靠输入的数据运行,它们可能无法捕捉历史趋势之外或基于现实世界洞察的新颖或罕见的可疑模式。用 AI 完全取代基于规则的系统可能会在 AFC 监控中留下盲点。
在存在偏见、模糊性或新颖性的情况下,AFC 需要人工智能无法提供的洞察力。同时,如果我们将人类从流程中移除,这可能会严重阻碍您的团队理解金融犯罪模式、发现模式和识别新兴趋势的能力。反过来,这可能会使任何自动化系统更难保持最新状态。
混合方法:结合基于规则和人工智能驱动的 AFC
金融机构可以将基于规则的方法与人工智能工具结合起来,创建一个利用两种方法优势的多层系统。从长远来看,混合系统将使人工智能的实施更加准确,并在应对新兴金融犯罪威胁方面更加灵活,同时又不牺牲透明度。
为此,机构可以将人工智能模型与持续的人工反馈相结合。因此,模型的自适应学习不仅会基于数据模式而增长,还会基于人工输入而改进和重新平衡数据模式。
并非所有 AI 系统都一样。AI 模型应接受持续测试,以评估准确性、公平性和合规性,并根据 AFC 团队确定的监管变化和新威胁情报定期更新。
风险与合规专家必须接受人工智能培训,或者聘请人工智能专家加入团队,以确保人工智能的开发和部署在一定的范围内进行。他们还必须制定专门针对人工智能的合规框架,为合规专家建立一条在新兴领域遵守监管规定的途径。
作为人工智能采用的一部分,重要的是让组织的所有要素了解他们正在使用的新人工智能模型的能力,以及它们的缺点(例如潜在的偏见),以便让他们对潜在的错误更加敏锐。
您的组织还必须做出其他一些战略考虑,以保证安全性和数据质量。投资高质量、安全的数据基础设施并确保它们接受准确和多样化数据集的训练至关重要。
人工智能现在和将来都是银行的威胁和防御工具。但他们需要正确处理这项强大的新技术,避免制造问题而不是解决问题。