思想领袖
在使用 Bard 的 AI 扩展之前,请考虑风险

Google最近 宣布 全面推出 Bard 扩展,将对话式生成 AI (GenAI) 工具集成到其其他服务中。Bard 现在可以利用用户的个人数据执行多种任务 – 组织电子邮件、预订航班、规划行程、撰写消息响应等等。
随着 Google 的服务已经深深融入我们的日常生活,这一集成标志着 GenAI 在实际日常应用方面的真正进步,创造了更高效和更富有成效的方式来处理个人任务和工作流程。因此,随着 Google 发布更方便的 AI 工具,其他基于 Web 的 AI 功能也在涌现,以满足用户现在寻求基于浏览器的生产力扩展的需求。
然而,用户也必须谨慎和负责。虽然 Bard 扩展和类似工具可以非常有用和高效,但它们也打开了潜在的安全漏洞的大门,这可能会损害用户的个人数据,以及其他尚未发现的风险。用户如果想要利用 Bard 或其他 GenAI 生产力工具,应该学习最佳实践,并在将敏感信息盲目交给它们之前寻求全面安全解决方案。
审查个人数据
Google 明确 指出,其公司员工可能会审查用户与 Bard 的对话 – 这可能包含私人信息,从发票到银行详细信息到情书。用户被告知不要输入机密信息或任何他们不希望 Google 员工看到或使用来告知产品、服务和机器学习技术的数据。
Google 和其他 GenAI 工具提供商也可能使用用户的个人数据来重新训练他们的机器学习模型 – 这是 GenAI 改进的一个必要方面。AI 的力量在于其自我学习和从新信息中学习的能力,但当这种新信息来自将个人数据托付给 GenAI 扩展的用户时,它就有可能将密码、银行信息或联系详细信息等信息整合到 Bard 的公开服务中。
不确定的安全问题
随着 Bard 成为 Google 中更广泛集成的工具,专家和用户都在努力了解其功能的范围。但是,像每个尖端的 AI 领域玩家一样,Google 继续发布产品,而不知道它们将如何利用用户的信息和数据。例如,最近披露,如果您 与朋友通过 Share 按钮共享 Bard 对话,整个对话可能会出现在任何人都可以看到的标准 Google 搜索结果中。
尽管它是一个诱人的解决方案,用于提高工作流程和效率,但将 Bard 或任何其他 AI 驱动的扩展授权来代表您执行有用任务可能会导致意想不到的后果,例如 AI 幻觉 – GenAI 有时会创建的虚假或不准确的输出。
对于 Google 用户来说,这可能意味着预订错误的航班、不准确地支付发票或将文档与错误的人共享。将个人数据暴露给错误的方或恶意行为者,或者将错误的数据发送给正确的人,都可能导致意想不到的后果 – 从身份盗窃和数字隐私丧失到潜在的财务损失或尴尬的信函泄露。
扩展安全
对于普通的 AI 用户,最佳实践就是不与仍然不可预测的 AI 助手共享任何个人信息。但是,这并不保证完全的安全。
向 SaaS 和基于 Web 的应用程序的转变已经使浏览器成为攻击者的主要目标。随着人们开始采用更多基于 Web 的 AI 工具,偷窃敏感数据的机会窗口变得更大。随着更多的浏览器扩展试图借助 GenAI 的成功 – 用新的高效功能吸引用户安装它们 – 人们需要警惕这样一个事实:许多这些扩展最终会窃取信息或用户的 OpenAI API 密钥,在 ChatGPT 相关工具的情况下。
幸运的是,浏览器扩展安全解决方案已经存在,可以防止数据盗窃。通过实施具有 DLP 控件的浏览器扩展,用户可以减轻邀请其他浏览器扩展(无论是 AI 基础还是其他类型)滥用或共享个人数据的风险。这些安全扩展可以检查浏览器活动并执行安全策略,防止基于 Web 的应用程序抓取敏感信息。
保护 Bard
虽然 Bard 和其他类似扩展承诺提高生产力和便利性,但它们带来了重大的网络安全风险。无论何时涉及个人数据,总是存在潜在的安全问题,用户必须意识到这些 – 尤其是在尚未探索的 GenAI 领域。
当用户允许 Bard 和其他 AI 及基于 Web 的工具独立处理敏感个人数据时,毫无疑问,未加防备的用户将面临更严重的后果,他们没有浏览器安全扩展或 DLP 控制。毕竟,提高生产力的作用将大大降低,如果它增加了暴露信息的机会,个人需要在数据被误用之前为 AI 设置防护措施。
