关注我们.

思想领袖

在使用人工智能扩展之前考虑风险

mm

谷歌最近 公布 全面推出 Bard Extensions,将对话式生成人工智能 (GenAI) 工具集成到他们的其他服务中。 Bard 现在可以利用用户的个人数据来执行无数任务 - 组织电子邮件、预订航班、计划旅行、制作消息响应等等。

由于 Google 的服务已经深深地融入到我们的日常生活中,此次集成标志着 GenAI 的实际日常应用向前迈出了真正的一步,创造了更高效、更高效的方式来处理个人任务和工作流程。 因此,随着谷歌发布更方便的人工智能工具,其他基于网络的人工智能功能也不断涌现,以满足现在寻求基于浏览器的生产力扩展的用户的需求。

然而,用户也必须谨慎和负责。 与 Bard Extensions 和类似工具一样有用和高效,它们为潜在的安全缺陷打开了新的大门,这些缺陷可能会危及用户的个人数据以及其他尚未发现的风险。 热衷于利用 Bard 或其他 GenAI 生产力工具的用户最好在盲目交出敏感信息之前学习最佳实践并寻求全面的安全解决方案。

审查个人数据

谷歌明确 国家 公司员工可能会审查用户与巴德的对话,其中可能包含私人信息,从发票到银行详细信息再到情书。 因此,用户被警告不要输入机密信息或任何他们不希望谷歌员工看到或用来通知产品、服务和机器学习技术的数据。

谷歌和其他 GenAI 工具提供商也可能使用用户的个人数据来重新训练他们的机器学习模型——这是 GenAI 改进的一个必要方面。人工智能的力量在于其自学和从新信息中学习的能力,但是当新信息来自信任 GenAI 扩展及其个人数据的用户时,它就会面临整合密码等信息的风险,将银行信息或联系方式添加到巴德的公开服务中。

未确定的安全问题

随着 Bard 成为 Google 内部更广泛的集成工具,专家和用户仍在努力了解其功能范围。 但与人工智能领域的每一个尖端参与者一样,谷歌继续发布产品,但并不确切知道它们将如何利用用户的信息和数据。 例如,最近有报道称,如果您 分享 通过共享按钮与朋友进行 Bard 对话,整个对话可能会显示在标准 Google 搜索结果中,供任何人查看。

尽管对于改进工作流程和效率来说这是一个诱人的解决方案,但授予 Bard 或任何其他人工智能驱动的扩展程序代表您执行有用的日常任务的权限可能会导致以人工智能幻觉形式出现的不良后果——众所周知,GenAI 会产生错误或不准确的输出有时创造。

对于 Google 用户来说,这可能意味着预订了错误的航班、不准确地支付了发票或与错误的人共享了文档。 将个人数据暴露给错误的一方或恶意行为者,或将错误的数据发送给正确的人,可能会导致不必要的后果——从身份盗窃和数字隐私丢失,到潜在的财务损失或令人尴尬的信件曝光。

扩展安全性

对于普通人工智能用户来说,最佳实践就是不要分享来自仍然不可预测的人工智能助手的任何个人信息。 但仅此并不能保证完全安全。

向 SaaS 和基于 Web 的应用程序的转变已经使浏览器成为攻击者的主要目标。 随着人们开始采用更多基于网络的人工智能工具,窃取敏感数据的机会之窗变得更大。 随着越来越多的浏览器扩展试图借用 GenAI 的成功——吸引用户安装新的、高效的功能——人们需要警惕这样一个事实,即许多这些扩展最终会窃取信息或用户的 OpenAI API 密钥,以 ChatGPT 相关工具为例。

幸运的是,浏览器扩展安全解决方案已经存在,可以防止数据被盗. 通过实施具有 DLP 控件的浏览器扩展,用户可以降低邀请其他浏览器扩展(基于人工智能或其他方式)滥用或共享个人数据的风险。 这些安全扩展可以检查浏览器活动并执行安全策略,从而防止基于网络的应用程序获取敏感信息的风险。

守护吟游诗人

虽然巴德和其他类似的扩展承诺提高生产力和便利性,但它们带来了巨大的网络安全风险。 每当涉及个人数据时,总是存在用户必须意识到的潜在安全问题——在生成人工智能的未知领域更是如此。

由于用户允许巴德和其他人工智能和基于网络的工具独立处理敏感的个人数据,毫无戒心的用户肯定会受到更严重的影响,因为他们在没有浏览器安全扩展或 DLP 控制的情况下容易受到攻击。 毕竟,如果增加了信息泄露的机会,那么生产率的提高就会大大降低,而且个人需要为人工智能采取保护措施,以免数据因处理不当而造成损失。

Tal 是首席技术官 感知点。 Tal Zamir 曾担任 Hysolate 的创始人兼首席技术官,是一位拥有 20 年经验的软件行业领导者,拥有通过重新构想技术运作方式解决紧迫业务挑战的记录。

他开创了多项突破性的网络安全和虚拟化产品。 Tal 在 VMware 首席技术官办公室期间孵化了下一代最终用户计算产品。