思想领袖
人工智能的危险之处在于“不”

我上周参加了一个潜在客户公司的电话会议。所有的安全和网络人员都在那里,另外还有管理层。不同的演讲者介绍了当下的热点话题。然后有人开始解释他的技术团队如何在日常工作中使用人工智能。
演讲者很兴奋。他已经找到了一种方法,使用人工智能工具将三天的手动复制和粘贴工作压缩到几分钟内。非常酷,对吧?我理解他在做什么和为什么要这么做。这就是人工智能的承诺!
但是作为房间里安全人员的我,我在想:“天啊。”“那是什么工具?谁拥有那个工具?”因为他正在将客户信息输入这些平台——定价数据。也许是财务信息?无论是什么。所有这一切都是为了加快他的工作流程。
所以,我问了一个显而易见的问题:“你们有人工智能政策吗?”我们去查找。找到了一个埋藏在可接受使用中的模糊内容。关于人工智能工具的内容。有人实际上会读它吗?可能不会。你在入职时签署它,然后就完成了。
您的员工已经在使用人工智能
这是我通过与各个行业的公司交谈所学到的:人工智能已经无处不在,无论您是否承认它。最近的研究证实了这一现实——75%的工人现在在工作中使用人工智能,仅六个月就几乎翻倍。
上周在休斯顿,我遇见了一个家伙,他的公司从事石油钻探。他们有一个人工智能平台,分析土壤成分和天气模式,以优化钻探位置。他解释了他们如何考虑降雨数据——“我们知道这个地区比去年多下雨18天,所以石油容量可能更高,这使得钻井可以更深入。”
同时,我正在使用人工智能创建德国的行程安排。我已经与使用人工智能进行远程医疗平台的医疗保健公司交谈过。金融团队正在运行风险模型。我甚至遇见了一个人,他经营着一个柠檬水生意,并以某种方式利用人工智能。
重点是:人工智能在每个行业、每个工作流程中都存在。它不是即将到来——它已经存在。并且这些组织中的大多数都与我们处于同一条船上。他们知道他们的员工正在使用它。他们只是不知道如何管理它。
暗影IT会迅速变得危险
你知道当你告诉人们不能使用人工智能时会发生什么吗?这就像告诉你的青少年永远不要喝酒。恭喜,你现在他们会以最不安全的方式喝酒,因为你创造了一个禁令。
数字证明了这一现实:72%的企业中生成性人工智能的使用是暗影IT,员工使用个人账户访问人工智能应用程序。
人们会去买第二台笔记本电脑。他们使用不受公司安全保护的个人手机。然后他们仍然会使用人工智能。突然,你失去了可见性,并创造了你试图防止的确切间隙。
我以前见过这种模式。说“不”一切的安全团队最终会将人们驱赶到地下,并失去对实际发生的事情的所有监督。
安全成为敌人
人们认为安全团队是“地下室里的坏人。”人们认为:“哦,安全团队可能会说不,所以不用理他们。我还是会去做。”
我们创造了这种误解。并且在人工智能方面,人们偏向于认为我们会关闭他们,所以他们不打算问我们。
我曾经有一个开发人员在会议演讲后走过来找我。他每天都使用API,并且一直试图引起他安全团队的注意,讨论测试和验证。但是他决定不问,因为他认为他们只会说不。
信任赤字的代价是一切
以下是你想要的对话:市场营销人员走过来对你说,“嘿,我想使用这个人工智能工具。我们的立场是什么?如何安全使用它?”这是与安全团队合作的正确方式。
我们将对其进行审查。我们理解人工智能将成为业务的一部分。我们不会对其说不——我们希望人们能够安全地使用它。但是我们需要先进行对话。
当人们认为安全团队会阻止一切时,他们就会停止询问。他们使用个人电子邮件注册,开始将公司数据输入未经审查的平台,你就会失去所有的可见性和控制。结果是可以预测的:38%的员工在未经雇主许可的情况下将敏感工作信息与人工智能工具共享。
组织将无论如何使用人工智能。问题是:我们如何确保员工可以在不危及公司数据、隐私或安全的情况下安全地利用人工智能?
从明智的“是”开始,而不是一概否定
以下是实际有效的方法:主动沟通。发送新闻稿或举办30分钟的网络研讨会,说明“我们允许在组织内使用人工智能。以下是如何安全使用的方法。”为那些错过会议的人录制会议内容。
展示安全团队与员工成功合作的例子。使这些合作关系可见,而不是成为人们认为会关闭他们的神秘实体。
你需要随着时间的推移在安全团队和员工之间建立信任。归根结底,我们都在以大大小小的方式使用人工智能。我使用人工智能来规划我的德国之行——告诉它创建一个三天的行程安排,并获得了一个很棒的旅行计划。
从组织的角度来看,我们需要认识到人工智能在业务中的位置。它会增加收入吗?可能。业务案例很明确:人工智能已经从“实验”转变为“必需”,企业支出激增130%。那么,我们该怎么办?如何在促进生产力的同时提供保护?
目标不是完美的控制,这是不可能的。目标是具有实际可行的护栏的明智人工智能采用。安全的新风险是与人工智能使用隔离——无论是否有安全团队的参与,都会发生这种使用。
对于认真对待这一问题的组织,专家建议制定明确的人工智能治理政策,以平衡业务需求和安全要求,在暗影人工智能使用完全失控之前。












