Connect with us

人工智能

什么是LLM幻觉?原因、伦理问题和预防

mm

大型语言模型(LLMs)是人工智能系统,能够分析和生成类似人类的文本。但是,它们有一个问题 – LLMs会产生幻觉,即编造东西。LLM幻觉使研究人员担心这一领域的进展,因为如果研究人员无法控制模型的输出,那么他们就无法建立关键系统来服务人类。稍后会详细讨论这一点。

一般来说,LLMs使用大量的训练数据和复杂的学习算法来生成真实的输出。在某些情况下,使用上下文学习来训练这些模型,只需使用几个示例。LLMs在各种应用领域变得越来越流行,从机器翻译、情感分析、虚拟AI助手、图像注释、自然语言处理等。

尽管LLMs具有开创性的性质,但它们仍然容易出现偏差、错误和幻觉。Meta的现任首席AI科学家Yann LeCun最近提到了LLMs中导致幻觉的核心缺陷:“大型语言模型没有对语言描述的底层现实的概念。这些系统生成听起来不错、语法和语义正确的文本,但它们没有客观的目标,只是为了满足提示的统计一致性”。

LLMs中的幻觉

Image by Gerd Altmann from Pixabay

幻觉是指模型生成语法和语义正确但与现实无关的输出,基于错误的假设。幻觉是LLMs的主要伦理问题之一,它可能造成有害的后果,因为没有足够领域知识的用户开始过度依赖这些越来越令人信服的语言模型。

在所有自回归LLMs中,某种程度的幻觉是不可避免的。例如,一个模型可能将一个从未说过的伪造引语归因于一位名人。他们可能会断言某个主题的某些内容是事实上不正确的,或者在研究论文中引用不存在的来源,从而传播错误信息。

然而,诱使AI模型产生幻觉并不总是有不良影响。例如,一项新研究表明,科学家正在通过产生幻觉的LLMs发现“具有无限多种特性的新蛋白质”。

什么导致LLMs的幻觉?

LLMs可能由于各种因素而产生幻觉,包括过拟合、编码和解码错误以及训练偏差。

过拟合

Image by janjf93 from Pixabay

过拟合是指AI模型过度拟合训练数据,但无法完全代表它可能遇到的所有输入,即它无法将预测能力推广到新、未见的数据。过拟合可能导致模型产生幻觉内容。

编码和解码错误

Image by geralt from Pixabay

如果文本及其后续表示的编码和解码中存在错误,也可能导致模型生成无意义和错误的输出。

训练偏差

Image by Quince Creative from Pixabay

另一个因素是训练数据中存在某些偏差,这可能导致模型产生代表这些偏差而不是数据实际性质的结果。这与训练数据缺乏多样性类似,限制了模型对新数据的推广能力。

LLMs的复杂结构使得AI研究人员和从业者难以识别、解释和纠正幻觉的根本原因。

LLM幻觉的伦理问题

LLMs可以通过幻觉延续和放大有害的偏见,并可能对用户产生负面影响,导致不利的社会后果。其中一些最重要的伦理问题如下:

歧视性和有毒内容

Image by ar130405 from Pixabay

由于LLM训练数据通常包含社会文化刻板印象,LLMs可以产生和强化这些有害的想法,针对社会中的弱势群体。

它们可以根据种族、性别、宗教、民族等因素生成歧视性和仇恨内容。

隐私问题

Image by JanBaby from Pixabay

LLMs是在一个包含个人信息的巨大训练语料库上训练的。已经有过这种模型侵犯人们隐私的案例。它们可以泄露特定的信息,例如社会安全号码、家庭地址、电话号码和医疗细节。

错误信息和虚假信息

Image by geralt from Pixabay

语言模型可以产生类似人类的内容,听起来准确,但实际上是错误的,并且没有得到经验证据的支持。这可能是意外的,导致错误信息,或者它可能有恶意的意图,故意传播虚假信息。如果不加以制止,它可能会产生不利的社会文化经济政治趋势。

预防LLM幻觉

Image by athree23 from Pixabay

研究人员和从业者正在采取各种方法来解决LLMs中的幻觉问题。这些方法包括改进训练数据的多样性、消除固有的偏差、使用更好的正则化技术以及采用对抗训练和强化学习等:

  • 开发更好的正则化技术是解决幻觉的核心。它们有助于防止过拟合和其他导致幻觉的问题。
  • 数据增强可以减少幻觉的频率,如一项研究所示。数据增强涉及在句子中的任何位置添加一个随机令牌。它将训练集的大小加倍,并导致幻觉的频率降低。
  • OpenAI和Google的DeepMind开发了一种称为强化学习与人类反馈(RLHF)的技术来解决ChatGPT的幻觉问题。它涉及一个人类评估者定期审查模型的响应并为用户提示选择最合适的响应。然后使用此反馈来调整模型的行为。OpenAI的首席科学家Ilya Sutskever最近提到,这种方法可能会解决ChatGPT中的幻觉问题:“我很希望,只需通过改进后续的强化学习和人类反馈步骤,我们就可以教会它不产生幻觉”。
  • 识别幻觉内容以用于未来的训练也是解决幻觉的一种方法。一个新技术可以在令牌级别检测幻觉,并预测输出中的每个令牌是否是幻觉。它还包括一种无监督学习幻觉检测器的方法。

简单来说,LLM幻觉是一个日益增长的问题。尽管做出了努力,但仍需要做更多工作来解决这个问题。这些模型的复杂性使得正确识别和纠正幻觉的根本原因具有挑战性。

然而,随着持续的研究和开发,减轻LLMs中的幻觉和降低其伦理后果是可能的。

如果您想了解更多关于LLMs和正在开发的预防技术,以纠正LLMs的幻觉,请访问unite.ai以扩展您的知识。

Haziqa 是一名具有丰富经验的数据科学家,擅长为 AI 和 SaaS 公司撰写技术内容。