Connect with us

Kunstig intelligens

Avdekking av Gemma: Google’s åpne kildekode-sprang inn i generativ AI

mm

Google har nylig introdusert Gemma, en åpen kildekode-språkmodell som deler sin teknologiske grunnlag med Gemini, Google’s høyt avanserte AI. Navnet Gemma er inspirert av det latinske ordet for “edelstein”, og er designet for å være en mer tilgjengelig motpart til sin forgjenger, Gemini 1.5, samtidig som den opprettholder en balanse mellom høy ytelse og ansvarlig bruk. Dette skrittet mot åpne kildekode-generativ AI understreker Google’s forpliktelse til å demokratisere AI-teknologi, og å tillate videre anvendelse og innovasjon på området. Artikkelen kaster lys over Gemma’s distinkte karakteristika og hvordan den skiller seg fra to av de ledende åpne kildekode-AI-modellene på markedet, Meta’s Llama 2 og Mistral’s Mistral 7B.

Gemma: Et nytt sprang i AI-språkmodeller

Gemma er en familie av lettvinte, åpne kildekode-språkmodeller, tilgjengelig i 2 milliarder og 7 milliarder parameter-konfigurasjoner for å møte et bredt spekter av beregningsbehov. Den kan deployes på ulike plattformer, inkludert GPU-er, TPU-er, CPU-er og på-enhet-applikasjoner, og viser sin fleksibilitet. Gemma’s arkitektur utnytter avanserte neurale nettverksteknikker, særlig transformer-arkitekturen, en ryggrad i nyere AI-utviklinger.
Hva som skiller Gemma fra andre modeller er dens unike ytelse i tekstbaserte oppgaver, og den overgår konkurrentene i 11 av 18 akademiske benchmark. Den excellerer i språkforståelse, resonnering, spørsmålssvar, sunn fornuft og spesialiserte domener som matematikk, vitenskap og kode. Denne ytelsen understreker Gemma’s betydelige bidrag til utviklingen av språkmodeller.

Nøkkel-funksjoner

Gemma introduserer en rekke funksjoner designet for å lette tilgang og integrasjon i ulike AI-utviklingsrammeverk og prosjekter:

  • Kryss-rammeverks-kompatibilitet: Gemma tilbyr verktøykjeder for inferens og overvåket finjustering som er kompatible med større utviklingsrammeverk som JAX, PyTorch og TensorFlow via native Keras 3.0. Dette sikrer at utviklere kan bruke sine foretrukne verktøy uten å møte hindre i å tilpasse seg nye miljøer.
  • Tilgang til ferdige ressurser: Gemma er utstyrt med Colab og Kaggle-notebøker for umiddelbar bruk, samt integrasjoner med populære plattformer som Hugging Face og NVIDIA NeMo. Disse resursene sikrer å forenkle prosessen med å starte med Gemma for både nye og erfarne utviklere.
  • Fleksibel og optimalisert deployering: Gemma er designet for bruk på en rekke maskinvare, fra personlige enheter til skytjenester og IoT-enheter, optimalisert for AI-hardware, og sikrer topp-ytelse på enhver enhet. Den støtter også enkle deployeringsalternativer, inkludert Vertex AI og Google Kubernetes Engine.
  • Forpliktelse til ansvarlig AI: Med fokus på sikker og etisk AI-utvikling, inkorporerer Gemma automatisert datafiltrering, forsterkning av læring fra menneskelig tilbakemelding og omfattende testing for å opprettholde høye standarder for pålitelighet og sikkerhet. Google tilbyr også et verktøy og ressurser for å hjelpe utviklere med å opprettholde ansvarlige AI-praksiser.
  • Oppmuntre til innovasjon gjennom gunstige vilkår: Gemma’s vilkår for bruk støtter ansvarlige kommersielle anvendelser og innovasjon, og tilbyr gratis kreditter for forskning og utvikling, inkludert tilgang til Kaggle, en gratis nivå for Colab-notebøker og Google Cloud-kreditter for å gi forskere og utviklere mulighet til å utforske nye grenser i AI.

Sammenligning med andre åpne kildekode-modeller

  • Gemma Vs Llama 2: Gemma og Llama 2, utviklet av Google og Meta henholdsvis, viser sine unike styrker innenfor domenet for åpne kildekode-språkmodeller, og møter ulike brukernes behov og preferanser. Gemma er særlig optimalisert for oppgaver i STEM-feltene, som kodegenerering og matematisk problemløsing, og gjør den til en verdifull ressurs for forskere og utviklere som krever spesialiserte funksjoner, særlig på NVIDIA-plattformer. Omvendt tiltaler Llama 2 en bredere publikum med sin fleksibilitet i å håndtere en rekke generelle språkoppgaver, inkludert tekstsummering og kreativ skriving. Den spesialiserte fokusen til Gemma på STEM-relaterte oppgaver kan begrense dens bredere anvendelighet i varierende sanntids-scenarier, mens de høye beregningskravene til Llama 2 kan hindre dens tilgjengelighet for brukere med begrensede ressurser. Disse forskjellene understreker de ulike anvendelsene og potensielle begrensningene til AI-teknologier, og reflekterer deres separate veier mot å bidra til fremgangen og utfordringene i den digitale æraen.
  • Gemma 7B Vs Mistral 7B: Mens både Gemma 7B og Mistral AI’s Mistral 7B-modeller er kategorisert som lettvinte, åpne kildekode-språkmodeller, utmerker de seg i ulike domener. Gemma 7B skiller seg ut med sine evner i kodegenerering og matematisk problemløsing, mens Mistral 7B er anerkjent for sine logiske resonneringsferdigheter og håndtering av sanntids-situasjoner. Til tross for disse forskjellene, tilbyr de to modellene lignende nivåer av ytelse når det gjelder inferens-hastighet og latency. Mistral 7B’s fullstendig åpne kildekode-natur tillater for mer rett frem modificering sammenlignet med Gemma 7B. Denne forskjellen i tilgjengelighet understrekes ytterligere av Google’s krav til at brukerne må godta visse vilkår før de kan bruke Gemma, med mål om å sikre robuste sikkerhets- og personvernsforanstaltninger. I motsetning kan Mistral AI’s tilnærming presenterer utfordringer i å håndheve lignende standarder.

Bunnen av saken

Google’s Gemma representerer et betydelig skritt i åpne kildekode-generativ AI, og tilbyr en fleksibel og tilgjengelig språkmodell designet for både høy ytelse og ansvarlig bruk. Bygget på den teknologiske dyktigheten til Google’s avanserte AI, Gemini, er Gemma tilpasset for å demokratisere AI-teknologi, og å oppmuntre til videre anvendelse og innovasjon. Med konfigurasjoner designet for å møte ulike beregningsbehov, og en rekke funksjoner som sikrer lett tilgang, kryss-rammeverks-kompatibilitet og optimalisert deployering, setter Gemma en ny standard i AI-domenet. Den unike ytelsen i spesialiserte STEM-oppgaver skiller den fra konkurrenter som Meta’s Llama 2 og Mistral AI’s Mistral 7B, hver med sine unike styrker. Likevel understreker Gemma’s omfattende tilnærming til ansvarlig AI-utvikling og dens støtte til innovasjon gjennom gunstige vilkår, Google’s forpliktelse til å fremme AI-teknologi på en etisk og tilgjengelig måte.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.