Connect with us

人工智能

小型推理模型的崛起:紧凑的AI是否能匹配GPT级别的推理?

mm

近年来,人工智能领域被大型语言模型(LLMs)的成功所吸引。最初设计用于自然语言处理,这些模型已经演变成强大的推理工具,能够以类似人类的步骤思考来解决复杂问题。然而,尽管它们具有异常的推理能力,但LLMs也带来了显著的缺点,包括高计算成本和缓慢的部署速度,使得它们在资源受限的环境中(如移动设备或边缘计算)不切实际。这导致了人们对开发更小、更高效的模型的兴趣日益增长,这些模型可以提供类似的推理能力,同时最小化成本和资源需求。本文探讨了这些小型推理模型的崛起、潜力、挑战以及对AI未来的影响。

观念的转变

在AI的近期历史中,领域一直遵循“规模法则”的原则,这表明模型的性能会随着数据、计算能力和模型大小的增加而可预测地提高。虽然这种方法已经产生了强大的模型,但也带来了显著的权衡,包括高基础设施成本、环境影响和延迟问题。不所有应用都需要大型模型的全部能力。在许多实际情况下(例如,设备上的助手、医疗保健和教育),较小的模型可以实现类似的结果,如果它们可以有效地推理。

理解AI中的推理

AI中的推理指的是模型跟随逻辑链、理解因果关系、推断含义、规划过程步骤和识别矛盾的能力。对于语言模型,这通常意味着不仅检索信息,还要通过结构化、步骤式的方法来操纵和推断信息。这种级别的推理通常是通过对LLMs进行多步推理来实现的,然后才能得出答案。虽然这种方法有效,但需要大量的计算资源,并且部署速度可能很慢,引发了人们对其可及性和环境影响的担忧。

理解小型推理模型

小型推理模型旨在复制大型模型的推理能力,但具有更高的计算效率、内存使用率和延迟。这些模型通常采用一种称为知识蒸馏的技术,其中较小的模型(“学生”)从较大、预训练的模型(“老师”)中学习。蒸馏过程涉及训练较小的模型使用较大的模型生成的数据,目标是传递推理能力。然后对学生模型进行微调以提高其性能。在某些情况下,应用强化学习,使用专门的域特定奖励函数,可以进一步增强模型的任务特定推理能力。

小型推理模型的崛起和进展

小型推理模型发展的一个值得注意的里程碑是DeepSeek-R1的发布。尽管DeepSeek-R1是在相对较小的旧GPU集群上训练的,但它在MMLU和GSM-8K等基准测试中实现了与OpenAI的o1类似的性能。这一成就导致了对传统的规模方法的重新评估,该方法假设较大的模型本质上更好。
DeepSeek-R1的成功可以归因于其创新性的训练过程,该过程结合了大规模的强化学习,而不依赖于早期阶段的监督微调。这一创新导致了DeepSeek-R1-Zero的创建,该模型展示了令人印象深刻的推理能力,与大型推理模型相比。此外,使用冷启动数据可以增强模型的连贯性和任务执行,特别是在数学和编码等领域。
此外,蒸馏技术已被证明是开发较小、更高效模型的关键。例如,DeepSeek发布了其模型的蒸馏版本,大小从15亿到700亿参数不等。使用这些模型,研究人员训练了一个相对较小的模型DeepSeek-R1-Distill-Qwen-32B,该模型在各种基准测试中超越了OpenAI的o1-mini。这些模型现在可以使用标准硬件部署,使得它们成为更广泛应用的可行选择。

小型模型是否能匹配GPT级别的推理

为了评估小型推理模型(SRMs)是否能匹配大型模型(LRMs)如GPT的推理能力,评估它们在标准基准测试中的性能至关重要。例如,DeepSeek-R1模型在MMLU测试中得分约为0.844,与较大的模型(如o1)相似。在GSM-8K数据集上,DeepSeek-R1的蒸馏模型实现了顶级性能,超越了o1和o1-mini。
在编码任务中,例如LiveCodeBenchCodeForces,DeepSeek-R1的蒸馏模型表现出了强大的推理能力,与o1-mini和GPT-4o相似。然而,较大的模型仍然在需要更广泛的语言理解或处理长上下文窗口的任务中具有优势,因为较小的模型往往更具任务特异性。
尽管它们具有优势,但小型模型可能难以处理扩展的推理任务或面对分布外数据。例如,在LLM国际象棋模拟中,DeepSeek-R1比较大的模型犯了更多错误,表明其在长时间内保持专注和准确性的能力有限。

权衡和实际影响

在比较SRMs和GPT级别的LRMs时,模型大小和性能之间的权衡至关重要。较小的模型需要更少的内存和计算能力,使得它们适合边缘设备、移动应用或离线推理必要的情况。这一效率的结果是更低的运营成本,例如DeepSeek-R1与较大的模型(如o1)相比,运行成本可降低多达96%。
然而,这些效率收益是以某些权衡为代价的。较小的模型通常针对特定任务进行微调,这可能会限制其与较大模型相比的多功能性。例如,虽然DeepSeek-R1在数学和编码方面表现出色,但它缺乏多模态能力,例如解释图像的能力,这是较大模型(如GPT-4o)可以处理的。
尽管存在这些限制,但小型推理模型的实际应用是巨大的。在医疗保健领域,它们可以为标准医院服务器上的诊断工具提供动力。在教育领域,它们可以用于开发个性化的辅导系统,为学生提供逐步的反馈。在科学研究中,它们可以协助数据分析和假设测试,例如数学和物理等领域。像DeepSeek-R1这样的开源模型的性质也促进了合作,并使AI技术更容易被小型组织使用。

结论

语言模型演变成小型推理模型是AI领域的重大进展。虽然这些模型可能还不能完全匹配大型语言模型的广泛能力,但它们在效率、成本效益和可及性方面提供了关键优势。通过在推理能力和资源效率之间取得平衡,小型模型将在各个应用中发挥至关重要的作用,使AI技术更实用和可持续地应用于实际场景。

Dr. Tehseen Zia 是 COMSATS University Islamabad 的终身副教授,拥有来自奥地利维也纳科技大学的人工智能博士学位。专攻人工智能、机器学习、数据科学和计算机视觉,他在著名的科学期刊上发表了重要贡献。 Dr. Tehseen 还作为首席调查员领导了各种工业项目,并担任人工智能顾问。