Thought Leaders
快速行动,但别搞砸:如何平衡负责任的人工智能采用与创新

根据麦肯锡最近的一项全球调查,尽管现在有78%的组织在至少一个业务职能中使用人工智能,但只有13%的组织雇佣了人工智能合规专家,而仅有6%的组织配备了人工智能伦理专家。
坦率地说,这是一种鲁莽的行为。
尽管在我不算太遥远的过去,我曾是硅谷“快速行动,打破常规”理念的忠实信徒,但对于人工智能——这项比我们以往所见任何技术都更强大、且正以光速发展的技术——我们不能如此掉以轻心。
采用人工智能而没有有意义的防护措施,正是那种快速行动、偷工减料的做法,注定最终会适得其反,并可能毁掉一切。只需一次人工智能偏见或滥用事件,就足以毁掉多年建立的品牌声誉。
尽管许多首席信息官和首席技术官意识到了这些风险,但他们似乎抱着一种假设,即监管机构最终会介入,将他们从建立自身框架的责任中解救出来,结果导致关于风险的讨论很多,但实际的监督却很少。
虽然我毫不怀疑监管最终会到来,但我对它们会很快建立起来则不那么有信心。ChatGPT大约在三年前推出,而我们才刚刚开始看到像参议院司法委员会关于聊天机器人及安全风险的会议这样的事情发生。现实情况是,可能需要数年时间我们才能看到任何有意义的监管。
企业不应将此作为拖延内部治理的借口,而应借此采取更积极主动的态度。尤其是考虑到当监管最终到来时,没有自身框架的公司将仓促地进行合规性改造。这正是GDPR和CCPA颁布时发生的情况。
正如二十一世纪初那些敢闯敢拼的初创公司,如今已成为企业科技巨头后需要遵守更高的标准一样,我们在负责任地采用人工智能方面也必须集体成熟起来。
负责任的人工智能部署没有“先买后付”——现在就开始
采取更负责任的人工智能方法的第一步,是停止等待监管机构,并制定自己的规则。无论你认为今天通过回避安全措施获得了多少先发优势,未来当你面临极其昂贵且具有破坏性的改造过程时,这些都会反噬你。
当然,对许多人来说,问题在于不知道从哪里开始。我的公司最近调查了500位大型企业的首席信息官和首席技术官,近一半(48%)的人将“确定什么构成负责任的人工智能使用或部署”列为确保人工智能道德使用的一项挑战。
一个简单的起点是扩大你的关注点,不仅要关注人工智能带来的功能可能性,还要考虑潜在的风险。例如,虽然人工智能的使用可能节省员工时间,但它也带来了大量个人身份信息数据或商业秘密被共享给未经许可和未经批准的大型语言模型的可能性。
当今任何数字公司都熟悉软件开发生命周期,它为构建高质量产品提供了一个框架。人工智能治理的最佳实践应嵌入到日常的工作流程中,以确保负责任的决策成为常规的一部分,而不是事后才考虑。
应建立一个治理机构,如伦理委员会或治理委员会,负责定义人工智能在组织内的实际应用标准,并同样定义如何监控和维护该标准的指标。从功能上看,这包括人工智能工具和模型治理、解决方案审批、风险管理、法规与标准对齐以及透明的沟通。虽然从技术上讲这可能是一个“新”流程,但它与数据最佳实践以及维护网络安全并无太大不同,并且可以实现自动化,以确保及早发现任何问题。
当然,并非所有风险都需要同等程度的关注,因此建立一个分层风险管理流程也很重要,这样你的团队就可以将大部分精力集中在被定义为高优先级的事项上。
最后,也是最关键的一点,对内和对外就治理实践进行清晰透明的沟通至关重要。这包括维护治理标准的动态文档,并提供持续的培训以使团队保持更新。
停止将治理视为对创新的威胁
对负责任的人工智能的真正威胁,很可能在于认为治理与创新相互对立的观念。我们的调查数据显示,高达87%的首席信息官和首席技术官认为过多的监管会限制创新。
但治理应被视为战略合作伙伴,而非某种创新的刹车片。
治理被视为减缓动力的摩擦力的一个原因是,它常常被留到产品开发的最后阶段,但防护措施应成为流程的一部分。如上所述,治理可以内置到冲刺周期中,这样产品团队可以快速推进,同时自动化的公平性、偏见和合规性检查也在并行运行。从长远来看,这会带来回报,因为当客户、员工和监管机构看到责任从一开始就被内置时,他们会更有信心。
而这已被证明能带来财务回报。研究表明,拥有完善实施的数据和人工智能治理框架的组织,其财务绩效提高了21-49%。然而,未能建立这些框架也会带来相应的后果。根据同一项研究,到2027年,大多数组织(60%)将“由于不连贯的道德治理框架而无法实现其人工智能用例的预期价值”。
关于治理不必以牺牲创新为代价这一论点的一个告诫是,法律团队参与这些对话确实往往会拖慢进度。然而,根据我的经验,建立一个治理、风险与合规团队,作为法律团队和产品团队之间的桥梁,对于保持事情顺利快速地进行大有帮助。
如果管理得当,GRC团队会与法律团队建立积极的关系,充当他们的现场耳目,获取他们所需的报告,同时与开发团队合作,以降低未来的诉讼和罚款风险。最终,这进一步强化了一个观点:尽早投资于治理是确保其不干扰创新的最佳方式。
创建可扩展的监督与治理系统
尽管许多受访的首席信息官和首席技术官认为监管可能限制创新,但同样有很高比例(84%)的人预计他们的公司将在未来12个月内加强人工智能监督。考虑到人工智能集成很可能随着时间的推移继续扩展和规模化,治理系统能够随之扩展同样重要。
我在企业人工智能实施的早期阶段经常看到的情况是,企业内部的不同部门各自为政,他们同时运行着不同的部署,并且对“负责任的人工智能”包含什么有着不同的理解。为了避免这些不一致,公司明智的做法是建立一个专门的人工智能卓越中心,融合技术、合规和业务专长。
人工智能卓越中心将制定全公司范围的标准和分层审批流程,为低风险用例提供顺畅的路径。这反过来在保持速度的同时,也确保高风险部署经过更正式的安全检查。同样,卓越中心还应为首席高管设定人工智能安全关键绩效指标,以确保问责制不会在日常业务职能中迷失。
但为了实现这一点,高管们需要提高对治理指标跟踪的可见性。提供这些指标实时数据的仪表板,将比当前静态合规报告的常态有效得多,后者往往立即过时且常常无人阅读。理想情况下,公司还应建立人工智能风险登记册,就像他们已经在跟踪网络安全风险一样,此外还要保留审计跟踪,记录谁构建了机器学习/人工智能实施、如何测试以及其随时间的表现。
这里最重要的启示是,负责任的人工智能要求治理是一个持续的过程。它不仅仅是发布时的审批,而是贯穿模型生命周期的持续监控。因此,培训是关键。开发者、技术专家和业务领导者应接受负责任的人工智能实践培训,以便他们能够及早发现问题,并在系统演进过程中保持高标准的治理。这样做,人工智能部署必将更值得信赖、更有效、更有利可图——而无需在此过程中打破任何东西。






