人工智能
微软推出 Phi-3:强大的开放式 AI 模型,以小尺寸提供顶级性能
微软推出了新的 Phi-3 系列 小语言模型 (SLM) 旨在在人工智能应用中提供高性能和成本效益。与类似和更大尺寸的模型相比,这些模型在语言理解、推理、编码和数学方面的基准测试中表现出了强劲的结果。 Phi-3 的发布为希望利用人工智能同时平衡效率和成本的开发人员和企业提供了更多选择。
Phi-3 型号系列和可用性
Phi-3 系列中的第一个模型是 Phi-3-mini,这是一款 3.8B 参数模型,现已在 Azure 人工智能工作室, 拥抱脸及 奥拉马。 Phi-3-mini 经过指令调整,无需进行大量微调即可“开箱即用”。它具有最多 128K 个令牌的上下文窗口,是同类尺寸中最长的,可以在不牺牲性能的情况下处理更大的文本输入。
为了优化跨硬件设置的性能,Phi-3-mini 已针对 ONNX 运行时和 NVIDIA GPU 进行了微调。微软计划很快发布 Phi-3-small(3B 参数)和 Phi-7-medium(3B 参数)来扩展 Phi-14 系列。这些附加型号将提供更广泛的选择,以满足不同的需求和预算。
Phi-3 性能和开发
微软报告称,在各种基准测试中,Phi-3 模型比相同尺寸的模型甚至更大的模型表现出显着的性能改进。据该公司称,Phi-3-mini 在语言理解和生成任务上的表现优于两倍大小的模型,而 Phi-3-small 和 Phi-3-medium 在某些方面超越了更大的模型,例如 GPT-3.5T。评价。
微软表示,Phi-3 型号的开发遵循了该公司的 负责任的人工智能原则 和标准,强调问责制、透明度、公平性、可靠性、安全性、隐私性、安全性和包容性。据报道,这些模型已经接受了安全培训、评估和红队,以确保遵守负责任的人工智能部署实践。
Phi-3 的潜在应用和功能
Phi-3 系列旨在在资源有限、低延迟至关重要或优先考虑成本效益的场景中表现出色。这些模型有潜力实现设备上的推理,使人工智能驱动的应用程序能够在各种设备上高效运行,包括那些计算能力有限的设备。 Phi-3 模型尺寸较小,也可能使企业能够更负担得起微调和定制,使他们能够使模型适应其特定用例,而不会产生高昂的成本。
在快速响应时间至关重要的应用中,Phi-3 模型提供了一种有前景的解决方案。其优化的架构和高效的处理可以快速生成结果,增强用户体验并为实时人工智能交互开辟可能性。此外,Phi-3-mini 强大的推理和逻辑能力使其非常适合分析任务,例如数据分析和见解生成。