Connect with us

思想领袖

当人工智能滥用触发企业危机

mm

大多数公司缺乏防止人工智能工具导致声誉灾难的政策

最近的调查显示,只有大约30%的公司建立了人工智能政策。同时,根据2025年企业人工智能和SaaS数据安全报告,77%的员工在ChatGPT上分享公司秘密。这一组合创造了完美的条件,导致声誉危机。

大多数现有的人工智能政策倾向于关注技术和合规风险。它们解决了数据安全协议、供应商评估和监管要求。然而,这些政策经常忽略的是,由于人工智能滥用而可能在几个小时内发生的公共关系灾难。在Red Banyan,我们为越来越多的组织提供了人工智能相关危机的咨询,并开始看到一种常见的模式。技术漏洞通常很快被控制,但对声誉、客户关系和利益相关者信任的损害可能会持续数月甚至数年。

影子人工智能问题

最大的威胁来自于安全专业人员所说的”影子人工智能“。这指的是员工使用未经批准的个人人工智能账户进行工作任务,绕过企业安全控制。大多数时候,他们这样做是没有完全意识到风险的。

根据Cyberhaven 研究,11%的员工将公司数据输入到ChatGPT中是机密的。这个数字应该让每个CIO和通信领导人感到警惕。我们正在谈论源代码、客户合同、未发布的产品路线图、财务预测和员工记录流入组织无法控制的系统。

数据泄露如何发生

软件工程师可以使用人工智能工具,如Claude或ChatGPT,来调试或优化代码片段。2023年,三星软件工程师就是这样做的——他们在尝试调试问题时将内部源代码上传到ChatGPT。机密代码的泄露迫使三星在所有工程部门实施了对人工智能使用的全面限制。

营销专业人员和人力资源人员经常使用人工智能来润色他们的写作。他们上传草稿提案、内部政策文件,甚至客户协议,要求人工智能改进清晰度或修复语法错误。这些文件经常包含财务预测、法律条款或战略计划,竞争对手会觉得有价值。

客户服务团队尝试使用人工智能效率工具,有时会输入实际客户对话和支持票。他们希望人工智能总结交互或建议更好的响应。当这些输入包含客户名称、联系信息、账户详细信息或购买历史时,公司可能已经违反了GDPR或CCPA等隐私法规。

产品开发团队在集思广益新功能时,可能会向ChatGPT描述未公开的功能,希望人工智能可以帮助完善他们的想法或识别潜在问题。这些描述可以揭示竞争优势、技术创新或市场战略,公司原本打算在发布前保密。

所有这些信息都可能被大型语言模型保留,并在未来告知人工智能对其他用户的响应。

例如,在产品开发团队向ChatGPT描述了他们即将推出的产品后,竞争对手或记者可能会问人工智能工具关于该公司即将发布的产品。ChatGPT可能会引用已分享的机密信息并泄露公司花费大量资源开发的新产品或技术。

如何成为公关危机

当这些事件发生时,它们很少被限制为IT问题。以下是通常发生的事情:

漏洞被发现,通常是通过意外或第三方警报。IT开始调查,同时尝试评估范围。如果事件涉及客户数据或受监管信息,法律义务需要披露。一旦披露,媒体报道开始。社交媒体放大了这个故事。客户开始打电话表示担忧。员工担心工作保障和自己的责任。

在24到48小时内,最初的技术事件已经变成了一场全面声誉危机。公司需要向多个受众解释这件事是如何发生的,为什么控制措施失败了,以及如何防止这种情况再次发生。如果公司没有为这种情况做好准备,响应通常会很慢、不一致或具有防御性。每一步都延长了危机并加深了损害。

为人工智能事件建立危机响应框架

CIO需要与通信和法律团队合作,建立针对人工智能事件的危机响应协议。技术控制和政策很重要,但如果没有管理媒体后果的计划,它们是不够的,当事情出错时。

以下是开始此过程的六个可行步骤:

  1. 建立明确的升级路径。 当发现人工智能相关的数据泄露时,谁会立即被通知?IT、法律、通信和高管团队都应迅速被告知。创建一个决策树,根据泄露的数据类型和敏感性确定何时激活危机协议。
  2. 开发响应模板。 预先草拟常见人工智能故障场景的声明和问答文档。这些应解决员工滥用、供应商安全问题和意外数据泄露问题。准备好模板可以实现更快、更一致的响应,当时间至关重要时。
  3. 培训发言人。 高管和通信人员需要专门针对人工智能事件的媒体培训。该技术很复杂,充满了术语,这可能很难在回答利益相关者问题时应对。
  4. 监测早期警告信号。 社交媒体监测应包括与组织和人工智能工具相关的关键词。有时,问题的第一个迹象来自员工在LinkedIn上发布的内容或客户在Twitter上抱怨人工智能生成的响应。
  5. 进行危机模拟。 通过人工智能数据泄露场景的桌面演练,帮助团队了解他们的角色并识别响应计划中的差距。这些模拟应涉及IT、法律、通信、人力资源和高管团队。
  6. 建立关系,以备不时之需。 与危机通信公司、可以提供第三方验证的网络安全专家和具有人工智能相关问题经验的法律顾问建立联系。当危机发生时,您希望有可信的顾问能够立即行动起来。

前进之路

人工智能采用和人工智能治理之间的差距继续扩大。员工可以轻松访问可能造成重大声誉风险的强大工具。CIO传统上专注于人工智能风险管理的技术方面。然而,人工智能事件的声誉维度需要同等的关注和准备。

问题不是您的组织是否会面临人工智能相关的危机。考虑到当前的采用率和影子人工智能的普遍性,问题是何时。现在准备好的人工智能政策的公司,既能解决技术风险,也能解决声誉风险,将比那些没有准备的公司更好地应对这些事件。

Vlad Drazdovich 是 Red Banyan 的性能改进和分析副总裁,Red Banyan 是一家战略沟通和危机管理机构。作为他职责的一部分,Vlad 为企业 AI 战略提供咨询,并在公司内部监督基于 AI 的技术实施。