Connect with us

Artificiell intelligens

Avtäckning av Gemma: Googles öppen källkods-språng in i generativ AI

mm

Google har nyligen introducerat Gemma, en öppen källkods-språkmodell som delar sin tekniska grund med Gemini, Googles högt avancerade AI. Namngiven efter det latinska ordet för “ädelsten”, är Gemma utformad för att vara en mer tillgänglig motsvarighet till sin föregångare, Gemini 1.5, samtidigt som den upprätthåller en balans mellan hög prestanda och ansvarsfull användning. Detta steg mot öppen källkods-generativ AI understryker Googles åtagande att demokratisera AI-teknologi, vilket möjliggör en bredare tillämpning och innovation inom området. Artikeln belyser Gemmas distinkta egenskaper och hur den skiljer sig från två av de ledande öppen källkods-AI-modellerna på marknaden, Meta’s Llama 2 och Mistral’s Mistral 7B.

Gemma: Ett nytt språng i AI-språkmodeller

Gemma är en familj av lätta, öppen källkods-språkmodeller, tillgängliga i 2 miljarder och 7 miljarder parameterkonfigurationer för att tillgodose en mängd olika beräkningsbehov. Den kan distribueras över olika plattformar, inklusive GPU:er, TPU:er, CPU:er och enhetsbaserade applikationer, vilket visar dess flexibilitet. Gemmas arkitektur utnyttjar avancerade neurala nätverkstekniker, särskilt transformator-arkitekturen, en ryggrad i de senaste AI-utvecklingarna.

Vad som skiljer Gemma från andra är dess exceptionella prestanda i textbaserade uppgifter, där den överträffar konkurrenter i 11 av 18 akademiska benchmark-tester. Den excellerar i språkförståelse, resonemang, frågesvar, sunt förnuft och specialiserade områden som matematik, vetenskap och kodning. Denna prestanda lyfter fram Gemmas betydande bidrag till utvecklingen av språkmodeller.

Nyckelfunktioner

Gemma introducerar ett antal funktioner som är utformade för att underlätta enklare tillgång och integration i olika AI-utvecklingsramverk och projekt:

  • Korsramverkskompatibilitet: Gemma erbjuder verktygskedjor för inferens och övervakad finjustering som är kompatibla med stora utvecklingsramverk som JAX, PyTorch och TensorFlow via native Keras 3.0. Detta säkerställer att utvecklare kan använda sina föredragna verktyg utan att behöva anpassa sig till nya miljöer.
  • Tillgång till färdiga resurser: Gemma är utrustad med Colab och Kaggle-anteckningsböcker för omedelbar användning, tillsammans med integrationer med populära plattformar som Hugging Face och NVIDIA NeMo. Dessa resurser syftar till att förenkla processen att komma igång med Gemma för både nya och erfarna utvecklare.
  • Flexibel och optimerad distribution: Gemma är utformad för användning på en mängd olika hårdvara, från personliga enheter till molntjänster och IoT-enheter, optimerad för AI-hårdvara, vilket säkerställer toppprestanda över enheter. Den stöder också enkla distributionsalternativ, inklusive Vertex AI och Google Kubernetes Engine.
  • Åtagande för ansvarsfull AI: Med betoning på säker och etisk AI-utveckling, inkorporerar Gemma automatiserad datafiltrering, förstärkt inlärning från mänsklig återkoppling och omfattande testning för att upprätthålla höga standarder för tillförlitlighet och säkerhet. Google erbjuder också ett verktyg och resurser för att hjälpa utvecklare att upprätthålla ansvarsfulla AI-praxis.
  • Uppmuntran till innovation genom fördelaktiga villkor: Gemmas användarvillkor stöder ansvarsfulla kommersiella tillämpningar och innovation, med gratis kredit för forskning och utveckling, inklusive tillgång till Kaggle, en gratis nivå för Colab-anteckningsböcker och Google Cloud-krediter för att ge forskare och utvecklare möjlighet att utforska nya gränser inom AI.

Jämförelse med andra öppna källkodsmodeller

  • Gemma vs Llama 2: Gemma och Llama 2, utvecklade av Google respektive Meta, visar sina unika styrkor inom området för öppen källkods-språkmodeller, som tillgodoser olika användarbehov och preferenser. Gemma är särskilt optimerad för uppgifter inom STEM-områden, såsom kodgegenerering och matematisk problemlösning, vilket gör den till en värdefull resurs för forskare och utvecklare som kräver specialiserade funktioner, särskilt på NVIDIA-plattformar. Å andra sidan tilltalar Llama 2 en bredare publik med sin flexibilitet i att hantera en mängd allmänna språkuppgifter, inklusive textsammanfattning och kreativt skrivande. Gemmas specialiserade fokus på STEM-relaterade uppgifter kan begränsa dess bredare tillämpbarhet i varierade realvärldsscenarier, medan Llama 2:s höga beräkningskrav kan hindra dess tillgänglighet för användare med begränsade resurser. Dessa skillnader understryker de olika tillämpningarna och potentiella begränsningarna för AI-teknologier, som reflekterar deras separata vägar mot att bidra till framstegen och utmaningarna i den digitala eran.
  • Gemma 7B vs Mistral 7B: Medan både Gemma 7B och Mistral AI:s Mistral 7B-modeller klassificeras som lätta, öppen källkods-språkmodeller, utmärker de sig inom olika områden. Gemma 7B skiljer sig för sin förmåga att generera kod och lösa matematiska problem, medan Mistral 7B är erkänd för sin logiska resonemangs- och hantering av realvärldssituationer. Trots dessa skillnader erbjuder de båda modellerna liknande nivåer av prestanda när det gäller inferenshastighet och latens. Mistral 7B:s fullständigt öppna källkods-natur möjliggör enklare modifieringar jämfört med Gemma 7B. Denna skillnad i tillgänglighet betonas ytterligare av Googles krav på att användare måste godkänna vissa villkor innan de kan använda Gemma, i syfte att säkerställa robusta säkerhets- och sekretessåtgärder. I kontrast kan Mistral AI:s tillvägagångssätt presentera utmaningar i att upprätthålla liknande standarder.

Sammanfattning

Googles Gemma representerar ett betydande steg i öppen källkods-generativ AI, som erbjuder en flexibel och tillgänglig språkmodell utformad för både hög prestanda och ansvarsfull användning. Byggd på den tekniska kompetensen hos Googles avancerade AI, Gemini, är Gemma anpassad för att demokratisera AI-teknologi, vilket uppmuntrar en bredare tillämpning och innovation. Med konfigurationer utformade för att tillgodose olika beräkningsbehov och en uppsättning funktioner som säkerställer enkel tillgång, korsramverkskompatibilitet och optimerad distribution, sätter Gemma en ny standard inom AI-domänen. Dess exceptionella prestanda i specialiserade STEM-uppgifter skiljer den från konkurrenter som Meta’s Llama 2 och Mistral AI’s Mistral 7B, var och en med sina unika styrkor. Men Gemmas omfattande tillvägagångssätt för ansvarsfull AI-utveckling och dess stöd för innovation genom fördelaktiga villkor understryker Googles åtagande att främja AI-teknologi på ett etiskt och tillgängligt sätt.

Dr. Tehseen Zia är en fast anställd biträdande professor vid COMSATS University Islamabad, med en doktorsexamen i AI från Vienna University of Technology, Österrike. Specialiserad på artificiell intelligens, maskinlärning, datavetenskap och datorseende, har han gjort betydande bidrag med publikationer i ansedda vetenskapliga tidskrifter. Dr. Tehseen har också lett olika industriprojekt som huvudutredare och tjänstgjort som AI-konsult.