Intelligence artificielle
Microsoft Présente Phi-3 : Des Modèles d’Intelligence Artificielle Ouverts Puissants Offrant Des Performances de Pointe à Des Tailles Réduites

Microsoft a introduit Phi-3, une nouvelle famille de petits modèles de langage (SLM) qui visent à offrir de hautes performances et une rentabilité dans les applications d’intelligence artificielle. Ces modèles ont montré des résultats solides dans les benchmarks de compréhension du langage, de raisonnement, de codage et de mathématiques par rapport aux modèles de tailles similaires et plus grandes. La sortie de Phi-3 élargit les options disponibles pour les développeurs et les entreprises qui souhaitent exploiter l’intelligence artificielle tout en équilibrant l’efficacité et le coût.
Famille de Modèles Phi-3 et Disponibilité
Le premier modèle de la gamme Phi-3 est Phi-3-mini, un modèle de 3,8 milliards de paramètres maintenant disponible sur Azure AI Studio, Hugging Face et Ollama. Phi-3-mini est livré avec une instruction de tuning, ce qui lui permet d’être utilisé “tel quel” sans un tuning poussé. Il dispose d’une fenêtre de contexte pouvant aller jusqu’à 128 K de jetons, la plus longue dans sa catégorie de taille, permettant le traitement de plus grands entrées de texte sans sacrifier les performances.
Pour optimiser les performances sur différents appareils, Phi-3-mini a été affiné pour ONNX Runtime et les GPU NVIDIA. Microsoft prévoit d’élargir la famille Phi-3 prochainement avec la sortie de Phi-3-small (7 milliards de paramètres) et Phi-3-medium (14 milliards de paramètres). Ces modèles supplémentaires offriront une gamme plus large d’options pour répondre à des besoins et à des budgets divers.

Image: Microsoft
Performances et Développement de Phi-3
Microsoft rapporte que les modèles Phi-3 ont montré des améliorations significatives des performances par rapport aux modèles de même taille et même plus grands sur divers benchmarks. Selon l’entreprise, Phi-3-mini a surpassé des modèles deux fois plus grands dans les tâches de compréhension et de génération de langage, tandis que Phi-3-small et Phi-3-medium ont dépassé des modèles beaucoup plus grands, tels que GPT-3,5T, dans certaines évaluations.
Microsoft déclare que le développement des modèles Phi-3 a suivi les principes et les normes de l’entreprise en matière d’intelligence artificielle responsable, qui mettent l’accent sur la responsabilité, la transparence, l’équité, la fiabilité, la sécurité, la vie privée, la sécurité et l’inclusivité. Les modèles auraient subi une formation à la sécurité, des évaluations et des tests de piratage pour garantir le respect des pratiques de déploiement d’intelligence artificielle responsables.

Image: Microsoft
Applications et Capacités Potentielles de Phi-3
La famille Phi-3 est conçue pour exceller dans les scénarios où les ressources sont limitées, où la latence faible est essentielle ou où la rentabilité est une priorité. Ces modèles ont le potentiel de permettre une inférence sur appareil, permettant aux applications alimentées par l’intelligence artificielle de fonctionner efficacement sur une large gamme d’appareils, y compris ceux ayant une puissance de calcul limitée. La taille plus petite des modèles Phi-3 peut également rendre le tuning et la personnalisation plus abordables pour les entreprises, leur permettant d’adapter les modèles à leurs cas d’utilisation spécifiques sans encourir des coûts élevés.
Dans les applications où les temps de réponse rapides sont critiques, les modèles Phi-3 offrent une solution prometteuse. Leur architecture optimisée et leur traitement efficace peuvent permettre une génération rapide de résultats, améliorant les expériences utilisateur et ouvrant des possibilités pour des interactions en temps réel avec l’intelligence artificielle. De plus, les solides capacités de raisonnement et de logique de Phi-3-mini le rendent bien adapté aux tâches analytiques, telles que l’analyse de données et la génération d’informations.
