思想领袖
防止 AI 编造故事:预防幻觉指南

AI 正在革新几乎每个行业的运作方式。它使我们更加高效、更加富有成效、并且 – 当正确实施时 – 更加擅长我们的工作。但是,随着我们对这项新技术的依赖迅速增加,我们必须提醒自己一个简单的事实:AI 并非万能。其输出不应被照面值,因为,就像人类一样,AI 也会犯错误。
我们称这些错误为“AI 幻觉”。这种错误范围从回答 数学问题不正确 到提供 政府政策不准确的信息。在高度监管的行业中,幻觉可能导致昂贵的罚款和法律麻烦,不要提及不满的客户。
AI 幻觉的频率应该引起担忧:据估计,现代大型语言模型(LLM)幻觉的频率从 1% 到 30% 不等。这导致每天生成数百个错误答案,这意味着希望利用这项技术的企业必须在选择要实施的工具时非常谨慎。
让我们探讨为什么 AI 幻觉发生,什么处于风险之中,以及如何识别和纠正它们。
垃圾输入,垃圾输出
你还记得小时候玩“电话”游戏吗?起始短语如何在传递给每个玩家时变得扭曲,导致最终形成一个完全不同的陈述?
AI 从输入中学习的方式类似。LLM 生成的响应只有输入信息的质量那么好,这意味着不正确的上下文可能导致虚假信息的生成和传播。如果 AI 系统建立在不准确、过时或有偏见的数据上,那么其输出将反映这一点。
因此,LLM 只有在输入正确的情况下才是好的,特别是当缺乏人类干预或监督时。随着更多自主 AI 解决方案的出现,提供正确的数据上下文以避免引起幻觉至关重要。我们需要对这些数据进行严格的训练,和/或能够以这样的方式引导 LLM:它们只从提供的上下文中响应,而不是从互联网上的任何地方提取信息。
为什么幻觉很重要?
对于面向客户的企业,准确性是一切。如果员工依赖 AI 执行任务,如合成客户数据或回答客户查询,他们需要相信这些工具生成的响应是准确的。
否则,企业风险损害其声誉和客户忠诚度。如果客户被聊天机器人提供不充分或虚假的答案,或者如果他们在等待员工核实聊天机器人的输出时感到不满,他们可能会将业务转移到其他地方。人们不应该担心他们与之交互的企业是否在向他们提供虚假信息 – 他们想要快速可靠的支持,这意味着这些交互的准确性至关重要。
企业领导者必须在选择合适的 AI 工具时做好他们的功课。AI 应该让员工有更多时间和精力专注于更高价值的任务;投资于需要不断的人类审查的聊天机器人违背了采用它的初衷。但是,幻觉的存在真的如此普遍,还是这个术语只是被过度使用来识别我们认为不正确的任何响应?
对抗 AI 幻觉
考虑:动态意义理论(DMT),即在这种情况下,用户和 AI 之间的理解正在被交换。但是,语言和主题知识的局限性导致了对响应的解释不一致。
在 AI 生成的响应中,潜在的算法可能尚未完全具备准确解释或生成文本的能力,以满足我们作为人类的期望。这种差异可能导致表面上看似准确的响应,但最终缺乏真正理解所需的深度或细微差别。
此外,大多数通用 LLM 只从互联网上公开的内容中提取信息。企业应用的 AI 在被告知特定行业和企业的数据和政策时表现更好。模型也可以通过直接的人类反馈来改进 – 特别是设计为响应语气和语法的代理解决方案。
这些工具也应该在成为面向消费者的产品之前经过严格的测试。这是预防 AI 幻觉的关键部分。整个流程应该使用 LLM 作为人物的对话来测试。这使企业能够更好地假设与 AI 模型的对话的总体成功率,然后再将其发布到世界上。
对于 AI 技术的开发者和用户来说,必须意识到他们收到的响应中的动态意义理论,以及输入中使用的语言的动态。记住,上下文是关键。作为人类,我们的大多数上下文都是通过未言明的方式理解的,无论是通过肢体语言、社会趋势,甚至我们的语气。作为人类,我们有可能对问题做出反应。但是,在我们当前的 AI 版本中,人类之间的理解并不能那么容易地被上下文化,所以我们需要更加批判地看待我们在写作中提供的上下文。
可以说,并非所有 AI 模型都是平等的。随着技术的发展以完成越来越复杂的任务,对于希望实施它的企业来说,识别出能够改善客户交互和体验的工具而不是损害它们至关重要。
责任不仅在于解决方案提供者,以确保他们已经尽一切努力来最小化幻觉的发生。潜在买家也有他们的作用要扮演。通过优先考虑严格训练和测试的解决方案,并且可以从专有数据中学习(而不是从互联网上的任何东西中学习),企业可以充分利用他们的 AI 投资,为员工和客户的成功做好准备。












