关注我们.

思想领袖

解决法学硕士 (LLM) 中的当前问题并展望下一步

mm

如今,已有数十种公开可用的大型语言模型 (LLM),例如 GPT-3、GPT-4、LaMDA 或 Bard,而且随着新模型的发布,数量还在不断增加。LLM 彻底改变了人工智能,彻底改变了我们在各个行业与技术互动的方式。这些模型使我们能够从许多人类语言数据集中学习,并为创新、创造力和效率开辟了新途径。

然而,能力越大,复杂性也就越大。在充分发挥法学硕士的潜力之前,我们必须解决其固有的挑战和道德问题。例如, 最近斯坦福大学的研究 在观察 ChatGPT-4 如何处理某些查询(这些查询包含暗示种族或性别的名字和姓氏)时,研究人员发现了种族和性别偏见。在这项研究中,研究人员向该程序询问有关某人出售的二手自行车的价格,该人名叫 Jamal Washington,与卖家名叫 Logan Becker 时相比,该程序给出的价格要低得多。随着这些发现不断浮出水面,解决 LLM 挑战的必要性只会增加。

如何缓解常见的法学硕士问题

偏见

法律硕士最常讨论的问题之一是偏见和公平。在最近的一项研究中, 专家测试 我们对四篇近期发表的法学硕士论文进行了研究,发现它们都对男性和女性表达了偏见,尤其是那些符合人们认知而非基于事实的假设。在本文中,偏见指的是不同社会群体之间不平等的待遇或结果,这很可能是由于历史或结构性权力失衡造成的。

在 LLM 中,偏见是由数据选择、创作者人口统计以及语言或文化偏差造成的。当选择用于 LLM 训练的文本不能代表网络上使用的语言的全部多样性时,就会出现数据选择偏差。在大量但有限的数据集上训练的 LLM 可能会继承这些文本中已有的偏见。在创作者人口统计方面,某些人口群体比其他群体更频繁地受到关注,这表明在内容创作中需要更多的多样性和包容性来减少偏见。例如,维基百科是一个常见的训练数据来源,其编辑者之间存在明显的人口不平衡,男性占多数(84%)。这与语言和文化方面的偏差类似。许多法学硕士所接受的培训资料都是有偏差的,倾向于以英语为中心,而这种偏差有时只能在其他语言和文化中准确翻译。

必须使用经过筛选的数据来训练 LLM,并且必须设置防护措施来抑制那些与数据不一致的主题。一种方法是通过基于数据增强的技术。您可以将代表性不足的群体的示例添加到训练数据中,从而扩大数据集的多样性。另一种缓解策略是数据筛选和重新加权,这主要侧重于精准定位现有数据集中代表性不足的特定示例。

幻觉

在法学硕士的背景下,幻觉是一种现象,其特征是产生一段文本,虽然语法正确且看似连贯,但与事实准确性或源材料的意图存在偏差。事实上, 最近的报道 发现明尼苏达州一项法律的诉讼直接受到法学硕士幻觉的影响。一份为支持该法律而提交的宣誓书被发现包含不存在的来源,这些来源可能是由 ChatGPT 或另一位法学硕士产生的幻觉。这些幻觉很容易降低法学硕士的可靠性。

幻觉主要有三种形式:

  1. 输入冲突幻觉:当 LLM 的输出与用户提供的输入不同时就会发生这种情况,输入通常包括任务指令和需要处理的实际内容。
  2. 语境冲突幻觉:在涉及长时间对话或多次交流的场景中,LLM 可能会产生内部不一致的响应。这表明该模型在追踪语境或在各种交互中保持一致性的能力方面存在潜在缺陷。
  3. 事实冲突幻觉:当法学硕士 (LLM) 撰写的内容与既定事实知识不一致时,就会出现这种幻觉。此类错误的来源多种多样,可能发生在法学硕士 (LLM) 生命周期的各个阶段。

造成这种现象的因素有很多,例如知识不足,这解释了 LLM 在预训练期间可能缺乏知识或正确吸收信息的能力。此外,训练数据中的偏差或 LLM 的顺序生成策略(绰号为“幻觉滚雪球”)也会产生幻觉。

虽然幻觉永远是 LLM 的一个特征,但还是有方法可以缓解幻觉。缓解幻觉的有效策略是在预训练期间缓解(使用过滤技术手动优化数据)或微调(整理训练数据)。然而,由于其成本效益和可控性,在推理期间缓解幻觉是最好的解决方案。

隐私政策

随着互联网的兴起,个人信息和其他私人数据的可访问性增加已成为人们普遍关注的问题。一项研究发现 80% 的美国消费者担心他们的数据被用于训练人工智能模型。由于最著名的法学硕士 (LLM) 数据来源于网站,我们必须考虑这会带来哪些隐私风险,并且这仍然是法学硕士 (LLM) 面临的一个尚未解决的问题。

防止 LLM 传播个人信息的最直接方法是将其从训练数据中清除。然而,鉴于 LLM 涉及的数据量巨大,几乎不可能保证所有私人信息都被清除。对于依赖外部开发模型的组织来说,另一个常见的替代方案是选择开源 LLM,而不是像 ChatGPT 这样的服务。

通过这种方法,模型的副本可以在内部部署。用户的提示在组织网络内保持安全,而不会暴露给第三方服务。虽然这大大降低了敏感数据泄露的风险,但也增加了相当大的复杂性。鉴于完全保障私人数据安全的难度,应用程序开发人员仍然必须考虑这些模型可能如何危及用户。

法学硕士的下一个前沿

随着我们继续发展并通过降低当前风险来塑造法学硕士的后续发展,我们应该期待法学硕士代理的突破,我们已经看到了这样的公司 H 带 Runner H,即将发布。从纯语言模型到代理架构的转变代表了人工智能系统设计的变化;该行业将超越聊天界面和简单的检索增强生成的固有限制。这些新的代理框架将具有复杂的规划模块,可将复杂的目标分解为原子子任务,维护情景记忆以进行情境推理,并通过定义明确的 API 利用专门的工具。这为任务自动化创建了一种更强大的方法。架构进展有助于缓解传统 LLM 实现中围绕任务和推理、工具集成和执行监控的常见挑战。

除了法学硕士之外,由于小型语言模型具有成本效益、可访问性和易于部署等特点,人们将更加关注小型语言模型的训练。例如,领域特定语言模型专门用于特定行业或领域。这些模型使用领域特定数据和术语进行了精细调整,使其成为复杂且受监管环境的理想选择,例如医疗或法律领域,在这些领域中,精确度至关重要。这种有针对性的方法降低了通用模型在面对专业内容时可能产生的错误和幻觉的可能性。

随着我们继续探索法学硕士的新领域,突破创新界限并解决和减轻与其开发和部署相关的潜在风险至关重要。只有首先识别并积极应对与偏见、幻觉和隐私相关的挑战,我们才能为法学硕士在不同领域的蓬勃发展奠定更坚实的基础。

Uday Kamath 是 斯马什,通信数据和情报领域的全球领导者。他的职责包括带头开展对话式人工智能的数据科学和研究。Kamath 拥有超过 25 年的分析开发经验和可扩展机器学习博士学位,在众多期刊、会议、书籍和专利中做出了重要贡献。他还是实体顾问委员会的活跃成员,包括 Falkonry 等商业公司和乔治梅森大学人机合作中心等学术机构。