思想领袖
快速行动,但不要破坏现状:如何平衡负责任的人工智能应用与创新

根据最近一项全球调查显示 麦肯锡尽管目前 78% 的组织至少在一个业务职能中使用人工智能,但只有 13% 的组织聘请了人工智能合规专家,而仅有 6% 的组织拥有人工智能伦理专家。
坦白说,这是鲁莽的行为。
虽然在不久之前,我曾是硅谷“快速行动,打破常规”理念的坚定拥护者,但我们不能对人工智能如此漫不经心——这项技术比我们以前见过的任何技术都更加强大,并且正在以光速发展。
采用人工智能 缺乏有效防护措施的快速投机取巧,注定会适得其反,并有可能导致失败。 一切仅仅一次人工智能偏见或滥用事件,就足以毁掉多年来建立的声誉品牌。
尽管许多首席信息官和首席技术官都意识到了这些风险,但他们似乎认为监管机构最终会介入,让他们不必建立自己的框架,结果导致对风险的讨论很多,但实际的监督却很少。
虽然我毫不怀疑最终会有相关法规出台,但我不太相信它们会在短期内得到落实。ChatGPT 大约三年前就已推出,而我们才刚刚开始看到一些相关事件,例如参议院司法委员会会议。 聊天机器人与安全风险 发生的情况是,现实情况是,我们可能要等上好几年才能看到任何有意义的监管措施。
企业不应以此为借口拖延内部治理,而应采取更积极主动的方式。尤其考虑到,一旦法规最终出台,那些没有自身框架的公司将不得不仓促地进行合规性改造。GDPR 和 CCPA 生效时,这种情况就曾发生过。
就像2000年代初那些不起眼的创业公司如今成长为科技巨头后,必须接受更高的标准一样,我们在负责任地采用人工智能方面,也必须共同进步,变得更加成熟。
负责任的AI部署不应采取“先买后付”的方式——现在就开始行动吧!
采取更负责任的AI策略的第一步,就是停止等待监管机构,制定自己的规则。你或许认为现在逃避安全措施能让你获得先机,但将来当你面临极其昂贵且影响深远的改造过程时,这些优势最终只会让你付出惨痛的代价。
当然,对许多人来说,问题在于不知道从何入手。我的公司最近 调查 500 位大型企业的首席信息官和首席技术官中,近一半 (48%) 的人认为“确定什么是负责任地使用或部署人工智能”是确保人工智能合乎道德的使用所面临的挑战。
一个简单的切入点是,将关注点从人工智能带来的功能扩展到可能存在的风险。例如,虽然人工智能的使用可以节省员工的时间,但也可能导致大量个人身份信息 (PII) 或商业机密被泄露给未经授权的第三方数据管理机构 (LLM)。
如今,任何一家数字化公司都熟悉软件开发生命周期(SDLC),它为构建高质量产品提供了一个框架。人工智能治理最佳实践应该融入到日常工作流程中,以确保负责任的决策成为常规操作的一部分,而不是事后才考虑的问题。
应设立一个管理机构,例如伦理委员会或治理委员会,来制定人工智能在组织内部实际应用的标准,并制定相应的指标来监控和维护这些标准。从功能上看,这包括人工智能工具和模型治理、解决方案审批、风险管理、法规和标准协调以及透明沟通。虽然从技术角度来看,这可能是一个“新”流程,但它与数据最佳实践和网络安全维护并没有太大区别,并且可以实现自动化,以确保及早发现任何问题。
当然,并非所有风险都需要同等程度的关注,因此制定分层风险管理流程也很重要,这样您的团队就可以将大部分精力集中在已确定为高优先级的事情上。
最后,也是最关键的一点,内部和外部就治理实践进行清晰透明的沟通至关重要。这包括维护动态更新的治理标准文档,并提供持续培训以确保团队及时了解最新信息。
停止将治理视为创新的威胁
真正的威胁很可能是…… 负责任的人工智能 这种观点认为,治理与创新是相互矛盾的。我们的调查数据显示,高达 87% 的首席信息官 (CIO) 和首席技术官 (CTO) 认为,过多的监管会限制创新。
但政府应该被视为战略伙伴,而不是某种创新跳板。
治理之所以被视为阻碍产品发展的阻力,原因之一是它通常被安排在产品开发的最后阶段,但实际上,监管机制应该贯穿整个流程。如上所述,治理可以融入迭代周期,使产品团队能够快速推进,同时自动化的公平性、偏见和合规性检查也在同步运行。从长远来看,这样做会带来回报,因为客户、员工和监管机构会因为从一开始就建立起责任机制而感到更加安心。
事实证明,这样做能够带来经济回报。 研究 研究表明,拥有完善的数据和人工智能治理框架的组织,其财务绩效可提升21%至49%。然而,未能建立这些框架也会带来相应的后果。同一项研究指出,到2027年,大多数组织(60%)将“由于缺乏统一的伦理治理框架,无法实现其人工智能应用案例的预期价值”。
认为公司治理不必以牺牲创新为代价的观点需要注意,法务团队参与相关讨论往往会拖慢进度。然而,根据我的经验,建立治理、风险与合规 (GRC) 团队对于确保项目顺利快速运行大有裨益,因为它能够搭建法务团队和产品团队之间的桥梁。
如果管理得当,GRC团队可以与法务团队建立积极的关系,充当他们的“耳目”,为他们提供所需的报告,同时与开发团队合作,降低未来诉讼和罚款的风险。最终,这进一步印证了尽早投资于治理是确保治理不会阻碍创新的最佳途径。
建立可扩展的监督和治理体系
尽管许多受访的首席信息官和首席技术官认为监管可能会限制创新,但仍有相当大比例(84%)的人预计其公司将在未来12个月内加强对人工智能的监管。考虑到人工智能集成可能会随着时间的推移而不断扩展和规模化,治理体系也必须能够随之扩展,这一点同样至关重要。
在企业人工智能实施的早期阶段,我经常看到企业内部不同部门各自为政,同时进行着不同的部署,并且对“负责任的人工智能”的理解也各不相同。为了避免这些不一致的情况,企业明智的做法是建立一个专门的人工智能卓越中心,将技术、合规和业务方面的专业知识融合起来。
人工智能卓越中心将建立全公司范围的标准和分级审批流程,为低风险用例提供过渡路径。这既能保持速度,又能确保高风险部署经过更正式的安全检查。同样,卓越中心还应为高管设定人工智能安全关键绩效指标 (KPI),以确保责任不会在日常业务运作中被忽视。
但要实现这一点,高管们需要提高对治理指标跟踪的可见性。能够提供这些指标实时数据的仪表盘,远比目前静态的合规报告有效得多,因为后者很快就会过时,而且常常无人问津。理想情况下,企业除了建立人工智能风险登记册(就像他们目前跟踪网络安全风险一样)之外,还应该保留审计跟踪记录,以反映机器学习/人工智能实现的构建者、测试方式以及其随时间推移的性能表现。
最重要的启示是,负责任的人工智能需要持续的治理。这不仅仅关乎发布时的审批,更需要在模型的整个生命周期中进行持续监控。因此,培训至关重要。开发人员、技术专家和业务领导者都应该接受负责任的人工智能实践培训,以便他们能够及早发现问题,并在系统演进过程中保持高标准的治理。如此一来,人工智能部署必将更加值得信赖、高效且盈利——而且不会造成任何系统故障。












