关注我们.

思想领袖

RAG 是 AI 幻觉的解决方案吗?

mm

人工智能从设计上就具有“自己的想法”。这样做的一个缺点是,生成式人工智能模型偶尔会以一种被称为“人工智能幻觉”的现象伪造信息,当纽约的一位法官做出这种现象时,最早的例子之一就引起了人们的关注。 训斥 律师使用 ChatGPT 撰写的法律摘要,其中引用了不存在的法庭案件。最近,出现了人工智能生成的搜索引擎告诉用户 消耗岩石 为了健康益处,或使用无毒 帮助奶酪粘在披萨上。

随着 GenAI 变得越来越普遍,采用者必须认识到,到目前为止,幻觉是一种 必然 GenAI 解决方案的一个方面。这些解决方案建立在大型语言模型(LLM)的基础上,通常来自大量不同的来源,这些来源可能至少包含一些不准确或过时的信息——这些捏造的答案构成了 3%和10%之间 人工智能聊天机器人对用户提示生成的响应。鉴于人工智能的“黑盒子“在大自然中,作为人类,我们很难准确地检查人工智能如何生成其结果,”开发人员几乎不可能追踪和理解这些幻觉。

无论是否不可避免,人工智能的幻觉往好了说是令人沮丧的,往坏了说是危险的,甚至是不道德的。

在医疗保健、金融和公共安全等多个领域,幻觉的后果包括从传播错误信息、泄露敏感数据到甚至危及生命的事故等方方面面。如果幻觉继续不受控制,用户的福祉和社会对人工智能系统的信任都将受到损害。

因此,这项强大技术的管理者必须认识到并解决人工智能幻觉的风险,以确保法学硕士生成的输出的可信度。

RAG 作为解决幻觉的起点

一种在减轻幻觉方面脱颖而出的方法是 检索增强生成,或RAG。该解决方案通过集成外部信息存储(从根据查询的性质选择的可信数据库中提取相关信息)来增强法学硕士的可靠性,以确保对特定查询的更可靠的响应。

一些行业 专家 假设仅 RAG 就可以解决幻觉。但 RAG 集成数据库仍然可能包含过时的数据,这可能会生成虚假或误导性信息。在某些情况下,通过 RAG 集成外部数据甚至可能会增加大型语言模型中产生幻觉的可能性:如果人工智能模型过度依赖过时的数据库,那么它就会 察觉 随着完全最新,幻觉的程度可能会变得更加严重。

AI Guardrails – 弥合 RAG 的差距

正如您所看到的,RAG 确实有望减轻 AI 幻觉。然而,转向这些解决方案的行业和企业也必须了解其固有的局限性。事实上,当与 RAG 一起使用时,在解决 LLM 幻觉时应该使用补充方法。

例如,企业可以采用实时人工智能 护栏 确保法学硕士的反应并减轻人工智能的幻觉。护栏充当一个网络,在所有 LLM 输出到达用户之前对其进行审查,以查找捏造的、亵渎的或偏离主题的内容。这种主动的中间件方法可确保 RAG 系统中检索的可靠性和相关性,最终增强用户之间的信任,并确保与公司品牌相符的安全交互。

或者,还有“提示工程”方法,该方法要求工程师更改后端主提示。通过在可接受的提示中添加预先确定的约束——换句话说,不仅监控法学硕士从哪里获取信息,还监控用户如何询问答案——设计的提示可以引导法学硕士获得更可靠的结果。这种方法的主要缺点是,对于程序员来说,这种类型的即时工程可能是一项极其耗时的任务,因为他们的时间和资源往往已经捉襟见肘。

“微调”方法涉及在专门的数据集上训练法学硕士 完善绩效 并减轻产生幻觉的风险。这种方法训练专门从事任务的法学硕士从特定的、可信的领域中提取信息,从而提高输出的准确性和可靠性。

考虑输入长度对法学硕士推理性能的影响也很重要——事实上,许多用户倾向于认为他们的提示越广泛、参数填充越多,输出就越准确。然而,一 最近的一项研究 揭示了LLM输出的准确性实际上 减少 随着输入长度的增加。因此,增加分配给任何给定提示的指南数量并不能保证生成可靠的生成式人工智能应用程序的一致性可靠性。

这种现象被称为提示超载,凸显了过于复杂的提示设计的固有风险——提示的措辞越广泛,当法学硕士争先恐后地满足每个参数时,就越容易出现不准确的信息和幻觉。

即时工程 需要不断更新和微调,并且仍然难以有效防止幻觉或无意义的反应。另一方面,护栏不会造成伪造输出的额外风险,这使它们成为保护人工智能的有吸引力的选择。与即时工程不同,护栏提供全方位的实时解决方案,确保生成式人工智能仅在预定义的边界内创建输出。

虽然它本身不是一个解决方案,但用户反馈还可以通过赞成和反对等操作来帮助减轻幻觉,从而帮助完善模型、提高输出准确性并降低幻觉风险。

RAG 解决方案本身需要进行大量实验才能获得准确的结果。但当与微调、快速工程和护栏配合使用时,它们可以提供更有针对性和更有效的解决方案来解决幻觉。探索这些补充策略将继续改善法学硕士的幻觉缓解,有助于跨各种应用开发更可靠和值得信赖的模型。

RAG 并不是解决 AI 幻觉的方法

RAG 解决方案通过丰富外部知识为法学硕士增添了巨大的价值。但由于生成式人工智能还有很多未知之处,幻觉仍然是一个固有的挑战。打击它们的关键不在于试图消除它们,而在于结合战略护栏、审查流程和微调提示来减轻它们的影响。

我们越相信 GenAI 告诉我们的信息,我们就越能有效、高效地利用其强大的潜力。

Liran Hason 是联合创始人兼首席执行官 领先的人工智能控制平台,受到全球财富 500 强企业和行业领袖的信任,确保了对 GenAI 的信任。Aporia 还被世界经济论坛评为技术先锋。在创立 Aporia 之前,Liran 曾是 Adallom(被微软收购)的 ML 架构师,后来成为 Vertex Ventures 的投资者。在亲眼目睹了没有护栏的人工智能的影响后,Liran 创立了 Aporia。2022 年,福布斯将 Aporia 评为“下一个十亿美元公司”