talon Dévoilement de Gemma : le saut open source de Google dans l'IA générative - Unite.AI
Suivez nous sur

Intelligence artificielle

Dévoilement de Gemma : le saut open source de Google dans l'IA générative

mm
Le kit de préparation mis à jour on

Google a récemment présenté Gemme, un modèle de langage open source qui partage son fondement technologique avec GEMINI, l'IA très avancée de Google. Nommé d'après le terme latin signifiant « pierre précieuse », Gemma est conçu pour être une contrepartie plus accessible à son prédécesseur, Gemini 1.5, tout en maintenant un équilibre entre haute performance et utilisation responsable. Cette évolution vers une IA générative open source souligne l'engagement de Google à démocratiser la technologie de l'IA, permettant une application et une innovation plus larges dans ce domaine. L'article met en lumière les caractéristiques distinctives de Gemma et comment elle se distingue de deux des principaux modèles d'IA open source du marché, Le lama de Meta 2 et de Mistral de Mistral 7B.

Gemma : un nouveau bond en avant dans les modèles de langage d'IA

Gemma est une famille de modèles de langage légers et open source, disponibles dans des configurations de 2 milliards et 7 milliards de paramètres pour répondre à un large éventail de besoins informatiques. Il peut être déployé sur diverses plates-formes, notamment les GPU, les TPU, les CPU et les applications sur appareil, démontrant sa polyvalence. L'architecture de Gemma exploite des techniques avancées de réseaux neuronaux, en particulier transformateur architecture, épine dorsale des développements récents de l’IA.

Ce qui distingue Gemma, ce sont ses performances exceptionnelles dans les tâches basées sur du texte, surpassant ses concurrents dans 11 sur 18 repères académiques. Il excelle dans la compréhension du langage, le raisonnement, la réponse aux questions, le raisonnement de bon sens et dans des domaines spécialisés comme les mathématiques, les sciences et le codage. Cette performance met en évidence la contribution significative de Gemma à l'évolution des modèles linguistiques.

Fonctionnalités clés

Gemma introduit une gamme de fonctionnalités conçues pour faciliter l'accès et l'intégration dans divers cadres et projets de développement d'IA :

  • Compatibilité multi-framework: Gemma propose des chaînes d'outils d'inférence et de réglage fin supervisé compatibles avec les principaux frameworks de développement comme JAX, PyTorchet une TensorFlow via natif Kéras 3.0. Cela garantit que les développeurs peuvent utiliser leurs outils préférés sans être confrontés aux obstacles liés à l'adaptation à de nouveaux environnements.
  • Accès à des ressources prêtes à l'emploi: Gemma est équipée de Colab et de Cahiers Kaggle pour une utilisation immédiate, ainsi que des intégrations avec des plateformes populaires telles que Étreindre le visage et de Nvidia NeMo. Ces ressources visent à simplifier le processus de démarrage avec Gemma pour les développeurs nouveaux et expérimentés.
  • Déploiement flexible et optimisé: Gemma est conçu pour être utilisé sur une variété de matériels, des appareils personnels aux services cloud et Appareils IoT, optimisé pour le matériel IA, garantissant des performances optimales sur tous les appareils. Il prend également en charge des options de déploiement simples, notamment IA des sommets et de Moteur Google Kubernetes.
  • Engagement pour une IA responsable: En mettant l'accent sur le développement d'IA sécurisé et éthique, Gemma intègre un filtrage automatisé des données, apprentissage par renforcement à partir de la rétroaction humaineet des tests complets pour respecter des normes élevées de fiabilité et de sécurité. Google propose également une boîte à outils et des ressources pour aider les développeurs à maintenir des pratiques d'IA responsables.
  • Encourager l’innovation grâce à des conditions favorables: Les conditions d'utilisation de Gemma soutiennent les applications commerciales et l'innovation responsables, offrant des crédits gratuits pour la recherche et le développement, y compris l'accès à Kaggle, un niveau gratuit pour les ordinateurs portables Colab, et des crédits Google Cloud pour permettre aux chercheurs et aux développeurs d'explorer de nouvelles frontières de l'IA.

Comparaison avec d'autres modèles open source

  • Gemma contre Lama 2 : Gemma et Llama 2, développés respectivement par Google et Meta, présentent leurs atouts uniques dans le domaine des modèles de langage open source, répondant aux différents besoins et préférences des utilisateurs. Gemma est particulièrement optimisé pour les tâches dans les domaines STEM, telles que la génération de code et la résolution de problèmes mathématiques, ce qui en fait une ressource précieuse pour les chercheurs et les développeurs qui ont besoin de fonctionnalités spécialisées, en particulier sur les plateformes NVIDIA. À l’inverse, Llama 2 séduit un public plus large grâce à sa polyvalence dans la gestion d’une gamme de tâches linguistiques générales, notamment le résumé de texte et l’écriture créative. L'accent spécialisé de Gemma sur les tâches liées aux STEM pourrait restreindre son applicabilité plus large dans divers scénarios du monde réel, tandis que les exigences informatiques élevées de Llama 2 pourraient entraver son accessibilité pour les utilisateurs disposant de ressources limitées. Ces distinctions soulignent les diverses applications et les limites potentielles des technologies d’IA, reflétant leurs chemins différents pour contribuer aux progrès et aux défis de l’ère numérique.
  • Gemma 7B contre Mistral 7B : Bien que les modèles Gemma 7B et Mistral AI de Mistral 7B soient classés comme des modèles de langage légers et open source, ils excellent dans différents domaines. Gemma 7B se distingue par ses capacités de génération de code et de résolution de problèmes mathématiques, tandis que Mistral 7B est reconnu pour ses capacités de raisonnement logique et sa gestion de situations réelles. Malgré ces différences, les deux modèles offrent des niveaux de performances similaires en termes de vitesse d'inférence et de latence. La nature entièrement open source de Mistral 7B permet des modifications plus simples par rapport à Gemma 7B. Cette différence d'accessibilité est encore soulignée par l'exigence de Google selon laquelle les utilisateurs doivent accepter certaines conditions avant de pouvoir utiliser Gemma, dans le but de garantir des mesures solides de sécurité et de confidentialité. En revanche, l’approche de Mistral AI pourrait présenter des difficultés pour faire appliquer des normes similaires.

Conclusion

Gemma de Google représente une avancée significative dans l'IA générative open source, offrant un modèle de langage polyvalent et accessible conçu pour une utilisation à la fois haute performance et responsable. S'appuyant sur les prouesses technologiques de l'IA avancée de Google, Gemini, Gemma est conçue pour démocratiser la technologie de l'IA, en encourageant une application et une innovation plus larges. Avec des configurations conçues pour répondre à divers besoins informatiques et une suite de fonctionnalités garantissant une facilité d'accès, une compatibilité entre frameworks et un déploiement optimisé, Gemma établit une nouvelle norme dans le domaine de l'IA. Ses performances exceptionnelles dans les tâches STEM spécialisées le distinguent de concurrents comme le Llama 2 de Meta et le Mistral 7B de Mistral AI, chacun avec ses atouts uniques. Cependant, l'approche globale de Gemma en matière de développement responsable de l'IA et son soutien à l'innovation grâce à des conditions d'utilisation favorables soulignent l'engagement de Google à faire progresser la technologie de l'IA de manière éthique et accessible.

Le Dr Tehseen Zia est professeur agrégé titulaire à l'Université COMSATS d'Islamabad, titulaire d'un doctorat en IA de l'Université de technologie de Vienne, en Autriche. Spécialisé en intelligence artificielle, apprentissage automatique, science des données et vision par ordinateur, il a apporté d'importantes contributions avec des publications dans des revues scientifiques réputées. Le Dr Tehseen a également dirigé divers projets industriels en tant que chercheur principal et a servi à titre de consultant en IA.