Connect with us

人工智能

袖珍强大:揭秘微软的Phi-3,适合手机的语言模型

mm

在人工智能领域的快速发展中,虽然趋势往往偏向更大、更复杂的模型,但微软却采取了不同的方法,推出了Phi-3 Mini。这款小型语言模型(SLM),现在已经进入第三代,能够将大型模型的强大功能打包到一个适合智能手机严格资源限制的框架中。凭借38亿参数,Phi-3 Mini在包括语言处理、推理、编码和数学等多个任务中匹配了大型语言模型(LLM)的性能,并通过量化技术针对移动设备进行了优化。

大型语言模型的挑战

微软的Phi SLM的开发是为了应对LLM带来的重大挑战,LLM需要的计算能力超过了消费设备通常可用的能力。这一高需求使得它们在标准计算机和移动设备上使用变得复杂,并由于训练和操作过程中的能耗而引发了环境问题,并有可能由于其大型和复杂的训练数据集而延续偏见。这些因素还可能损害模型在实时应用中的响应速度,并使更新变得更加困难。

Phi-3 Mini:在个人设备上简化AI,增强隐私和效率

Phi-3 Mini被战略性地设计为一种成本有效和高效的替代方案,用于将高级AI直接集成到个人设备(如手机和笔记本电脑)上。这种设计可以实现更快、更及时的响应,增强用户与技术的交互。
Phi-3 Mini使得复杂的AI功能可以直接在移动设备上处理,从而减少对云服务的依赖,并增强实时数据处理能力。这对于需要实时数据处理的应用程序(如移动医疗、实时语言翻译和个性化教育)至关重要,促进了这些领域的进步。该模型的成本效益不仅降低了运营成本,还扩大了AI在各个行业(包括可穿戴技术和家居自动化等新兴市场)的集成潜力。Phi-3 Mini使得数据处理直接在本地设备上进行,从而提高了用户隐私。这对于管理敏感信息的领域(如个人健康和金融服务)至关重要。此外,该模型的低能耗有助于实现环境可持续的AI操作,符合全球可持续发展努力。

Phi的设计理念和演变

Phi的设计理念基于课程学习的概念,这种概念的灵感来自教育方法,即儿童通过逐渐增加挑战性的例子来学习。主要思想是从简单的例子开始AI的训练,并随着学习过程的进展逐渐增加训练数据的复杂性。微软通过构建一个基于教科书的数据集(如他们的研究“教科书就是你需要的所有”中所述)来实施这种教育策略。Phi系列于2023年6月推出,首先推出了Phi-1,这是一个紧凑的模型,拥有13亿参数。这个模型迅速证明了其有效性,特别是在Python编码任务中,它超越了更大、更复杂的模型。继此成功之后,微软后来开发了Phi-1.5,它保持了相同的参数数量,但在常识推理和语言理解等领域扩大了其能力。该系列以2023年12月发布的Phi-2为标志。凭借27亿参数,Phi-2展示了令人印象深刻的推理和语言理解能力,将其定位为与更大模型的强劲竞争者。

Phi-3与其他小型语言模型的比较

在其前身的基础上,Phi-3 Mini通过在多个工业应用中超越其他SLM(如Google的GemmaMistral的MistralMeta的Llama3-InstructGPT 3.5)来扩展Phi-2的进步。这些应用包括语言理解和推理、一般知识、常识推理、初级数学词问题和医疗问答,展示了与这些模型相比的卓越性能。Phi-3 Mini还在iPhone 14上进行了离线测试,用于各种任务,包括内容创建和根据特定位置提供活动建议。为了实现这一点,Phi-3 Mini使用称为量化的过程被压缩到1.8GB,这个过程通过将模型的数值数据从32位浮点数转换为更紧凑的格式(如4位整数)来优化模型以适应资源有限的设备。这种方法不仅减少了模型的内存占用,还提高了处理速度和功耗效率,对于移动设备至关重要。开发人员通常使用诸如TensorFlow LitePyTorch Mobile等框架,这些框架包含内置的量化工具,以自动化和完善这个过程。

功能比较:Phi-3 Mini与Phi-2 Mini

以下,我们比较了Phi-3和其前身Phi-2的一些功能。

  • 模型架构: Phi-2操作基于变换器的架构,旨在预测下一个词。Phi-3 Mini也采用变换器解码器架构,但更接近Llama-2模型结构,使用相同的标记器,词汇量为320,641。这种兼容性确保为Llama-2开发的工具可以轻松适配用于Phi-3 Mini。
  • 上下文长度: Phi-3 Mini支持的上下文长度为8,000个标记,这比Phi-2的2,048个标记大得多。这种增加使得Phi-3 Mini能够处理更详细的交互并处理更长的文本段。
  • 在移动设备上本地运行: Phi-3 Mini可以被压缩到4位,占用约1.8GB的内存,类似于Phi-2。它已在iPhone 14(配备A16 Bionic芯片)上进行了离线测试,在类似条件下实现了每秒超过12个标记的处理速度,匹配了Phi-2的性能。
  • 模型大小: Phi-3 Mini拥有38亿参数,规模大于Phi-2的27亿参数,反映了其增强的能力。
  • 训练数据: 与Phi-2不同,Phi-2是在1.4万亿个标记上训练的,Phi-3 Mini是在一个更大的数据集上训练的,包含3.3万亿个标记,使其能够更好地掌握复杂的语言模式。

解决Phi-3 Mini的局限性

虽然Phi-3 Mini在小型语言模型领域表现出显著的进步,但它并非没有局限性。Phi-3 Mini的一个主要限制是,由于其规模较大型语言模型小,其存储大量事实知识的能力有限。这可能会影响其独立处理需要大量特定事实数据或详细专家知识的查询的能力。然而,这可以通过将Phi-3 Mini与搜索引擎集成来缓解。这样,模型就可以实时访问更广泛的信息,有效地弥补其固有的知识局限性。这使得Phi-3 Mini能够像一个非常有能力的对话者一样,即使拥有全面理解语言和上下文的能力,也可能需要“查找”信息以提供准确和最新的回应。

可用性

Phi-3现在在多个平台上可用,包括Microsoft Azure AI StudioHugging FaceOllama。在Azure AI上,模型包含一个部署-评估-微调工作流程,而在Ollama上,它可以在笔记本电脑上本地运行。该模型已针对ONNX Runtime进行了优化,并支持Windows DirectML,确保它可以在各种硬件类型(如GPU、CPU和移动设备)上良好运行。另外,Phi-3作为微服务通过NVIDIA NIM提供,配备了标准API以便在不同环境中部署,并针对NVIDIA GPU进行了优化。微软计划在不久的将来进一步扩展Phi-3系列,添加Phi-3-small(7B)和Phi-3-medium(14B)模型,为用户提供更多选择,以平衡质量和成本。

结论

微软的Phi-3 Mini正在人工智能领域取得重大进展,将大型语言模型的力量适应于移动设备。该模型通过更快、实时的处理和增强的隐私功能来提高用户与设备的交互。它减少了对云服务的需求,降低了运营成本,并扩大了人工智能在医疗保健和家居自动化等领域的应用范围。凭借其对课程学习和竞争性性能的关注,Phi-3 Mini正在成为高效和可持续的移动AI的关键工具,微妙地改变着我们每天与技术的交互方式。

Dr. Tehseen Zia 是 COMSATS University Islamabad 的终身副教授,拥有来自奥地利维也纳科技大学的人工智能博士学位。专攻人工智能、机器学习、数据科学和计算机视觉,他在著名的科学期刊上发表了重要贡献。 Dr. Tehseen 还作为首席调查员领导了各种工业项目,并担任人工智能顾问。