Stumm Gemma: Google bréngt Advanced AI Capabilities duerch Open Source - Unite.AI
Connect mat eis

Kënschtlech Intelligenz

Gemma: Google bréngt fortgeschratt AI Fäegkeeten duerch Open Source

mm

publizéiert

 on

Google Open Source LLM Gemma

D'Feld vun der kënschtlecher Intelligenz (AI) huet an de leschte Joeren immense Fortschrëtter gesinn, haaptsächlech duerch Fortschrëtter an ze léieren an natierlech Sproochveraarbechtung (NLP). Am Virdergrond vun dëse Fortschrëtter sinn grouss Sproochmodeller (LLMs) - AI Systemer trainéiert op massive Quantitéiten vun Textdaten, déi mënschlech-ähnlechen Text generéiere kënnen an u Gespréichsaufgaben engagéieren.

LLMs wéi Google's PaLM, Anthropic's Claude, an DeepMind's Gopher hunn bemierkenswäert Fäegkeeten bewisen, vu Kodéierung bis zum gesonde Mënscheverstand Begrënnung. Wéi och ëmmer, déi meescht vun dëse Modeller sinn net offen verëffentlecht ginn, wat hiren Zougang fir Fuerschung, Entwécklung a profitabel Uwendungen limitéiert.

Dëst huet geännert mat der rezenter Open Sourcing vu Gemma - eng Famill vu LLMs vum Google's DeepMind baséiert op hire mächtege propriétaire Gemini Modeller. An dësem Blog Post dauche mir an Gemma, analyséiert seng Architektur, Trainingsprozess, Leeschtung a verantwortlech Verëffentlechung.

Iwwersiicht vun Gemma

Am Februar 2023, DeepMind oppen Quell zwou Gréissten vun Gemma Modeller - eng 2 Milliarden Parameter Versioun optimiséiert fir op-Device Deployment, an eng méi grouss 7 Milliarden Parameter Versioun entworf fir GPU / TPU Benotzung.

Gemma benotzt eng ähnlech Transformator-baséiert Architektur a Trainingsmethodologie zu DeepMind seng féierend Gemini Modeller. Et gouf op bis zu 6 Billioun Tokens vun Text aus Webdokumenter, Mathematik a Code trainéiert.

DeepMind huet souwuel rau pretrained Checkpoints vu Gemma verëffentlecht, wéi och Versioune fein gestëmmt mat iwwerwaachte Léieren a mënschleche Feedback fir verstäerkte Fäegkeeten a Beräicher wéi Dialog, Instruktiounsfolgend a Kodéierung.

Ufänken mat Gemma

Dem Gemma seng oppe Verëffentlechung mécht seng fortgeschratt AI Fäegkeeten zougänglech fir Entwéckler, Fuerscher an Enthusiaster. Hei ass e schnelle Guide fir unzefänken:

Plattform Agnostesch Deployment

Eng Schlësselstäerkt vu Gemma ass seng Flexibilitéit - Dir kënnt et op CPUs, GPUs oder TPUs lafen. Fir CPU, benotzt TensorFlow Lite oder HuggingFace Transformers. Fir beschleunegt Leeschtung op GPU / TPU, benotzt TensorFlow. Cloud Servicer wéi Google Cloud's Vertex AI bidden och nahtlos Skaléieren.

Zougang Pre-trainéiert Modeller

Gemma kënnt a verschiddene pre-trained Varianten ofhängeg vun Äre Besoinen. D'2B an 7B Modeller bidden staark generativ Fäegkeeten aus der Këscht. Fir personaliséiert Feintuning sinn d'2B-FT an 7B-FT Modeller ideal Ausgangspunkten.

Build spannend Uwendungen

Dir kënnt eng divers Palette vun Uwendungen mat Gemma bauen, wéi Geschicht Generatioun, Sprooch Iwwersetzung, Fro Äntwert, a kreativ Inhalt Produktioun. De Schlëssel ass d'Gemma seng Stäerkten duerch Feintuning op Ären eegene Datesätz ze profitéieren.

Architecture

Gemma benotzt eng Decoder-nëmmen Transformatorarchitektur, baut op Fortschrëtter wéi Multi-Query Opmierksamkeet a rotativ positionell Embeddings:

  • Transformatoren: Am Joer 2017 agefouert, ass d'Transformatorarchitektur baséiert eleng op Opmierksamkeetsmechanismen ubiquitär an NLP ginn. Gemma ierft d'Fäegkeet vum Transformator fir laangfristeg Ofhängegkeeten am Text ze modelléieren.
  • Decoder nëmmen: Gemma benotzt nëmmen en Transformator Decoder Stack, am Géigesaz zu Encoder-Decoder Modeller wéi BART oder T5. Dëst bitt staark generativ Fäegkeeten fir Aufgaben wéi Textgeneratioun.
  • Multi-Query Opmierksamkeet: Gemma beschäftegt Multi-Query Opmierksamkeet a sengem gréissere Modell, erlaabt all Opmierksamkeet Kapp multiple Ufroen parallel ze veraarbecht fir méi séier Inferenz.
  • Rotary positional embeddings: Gemma representéiert Positiounsinformatioun mat Rotary Embeddings amplaz vun absolute Positiounskodéierungen. Dës Technik verklengert Modell Gréisst iwwerdeems Positioun Informatiounen behalen.

D'Benotzung vun Techniken wéi Multi-Query Opmierksamkeet a rotativ positionell Embeddings erméiglechen Gemma Modeller fir en optimalen Ofwiesselung tëscht Leeschtung, Inferenzgeschwindegkeet a Modellgréisst z'erreechen.

Donnéeën an Training Prozess

Gemma gouf op bis zu 6 Billioun Tokens vun Textdaten trainéiert, virun allem op Englesch. Dëst enthält Webdokumenter, mathemateschen Text a Quellcode. DeepMind investéiert bedeitend Efforten an Datefilterung, Entfernung vun gëftege oder schiedlechen Inhalter mat Klassifizéierer an Heuristik.

Training gouf mat der Google TPUv5 Infrastruktur ausgefouert, mat bis zu 4096 TPUs benotzt fir Gemma-7B ze trainéieren. Effizient Modell- an Dateparallelismus Techniken hunn d'massiv Modeller mat Commodity Hardware trainéiert.

Inszenéiert Training gouf benotzt, kontinuéierlech d'Dateverdeelung ugepasst fir op héichqualitativ, relevant Text ze fokusséieren. Déi lescht Feintuningstadien hunn eng Mëschung aus mënschlech generéierten a syntheteschen Instruktiounsfolgend Beispiller benotzt fir d'Fäegkeeten ze verbesseren.

Modell Leeschtung

DeepMind rigoréis evaluéiert Gemma Modeller op enger breeder Palette vun iwwer 25 Benchmarks, déi Froe beäntweren, Begrënnung, Mathematik, Kodéierung, gesonde Mënscheverstand, an Dialogfäegkeeten.

Gemma erreecht modernste Resultater am Verglach mat ähnlechen grousser Open Source Modeller iwwer d'Majoritéit vu Benchmarks. E puer Highlights:

  • Mathematik: Gemma excels op mathematesch Begrënnungstester wéi GSM8K a MATH, iwwerpréift Modeller wéi Codex an Anthropic's Claude mat iwwer 10 Punkten.
  • kodéieren: Gemma entsprécht oder iwwerschreift d'Performance vum Codex op programméiere Benchmarks wéi MBPP, trotz net speziell op Code trainéiert.
  • Dialog: Gemma weist staark Gespréichsfäegkeet mat 51.7% Gewënnquote iwwer Anthropic's Mistral-7B op mënschlech Präferenz Tester.
  • Begrënnung: Op Aufgaben déi Inferenz erfuerderen wéi ARC a Winogrande, iwwerhëlt Gemma aner 7B Modeller mat 5-10 Punkten.

Dem Gemma seng Villsäitegkeet iwwer Disziplinnen weist seng staark allgemeng Intelligenzfäegkeeten. Wärend d'Lücken op d'Performance op mënschlechen Niveau bleiwen, stellt Gemma e Sprong no vir an der Open Source NLP.

Sécherheet a Verantwortung

D'Verëffentlechung vun Open Source Gewiichter vu grousse Modeller stellt Erausfuerderunge ronderëm virsiichteg Mëssbrauch an inherent Modellbias vir. DeepMind huet Schrëtt gemaach fir Risiken ze reduzéieren:

  • Datenfilterung: Potenziell gëfteg, illegal oder partizipativ Text gouf aus den Trainingsdaten geläscht mat Klassifizéierer an Heuristiken.
  • Bewäertungen: Gemma gouf op 30+ Benchmarks getest fir Sécherheet, Fairness a Robustheet ze bewäerten. Et passt oder iwwerschratt aner Modeller.
  • Fine-tuning: Modell Feintuning konzentréiert sech op d'Verbesserung vun de Sécherheetsfäegkeeten wéi Informatiounsfilter a passend Hedging / Refus Verhalen.
  • Nutzungsbedingungen: Benotzungsbedingunge verbidden offensiv, illegal oder onethesch Uwendunge vu Gemma Modeller. Wéi och ëmmer, Duerchféierung bleift Erausfuerderung.
  • Modell Kaarten: Kaarte mat Modellfäegkeeten, Aschränkungen a Viraussetzunge goufen verëffentlecht fir Transparenz ze förderen.

Wärend Risiken aus Open Sourcing existéieren, huet DeepMind festgestallt datt dem Gemma seng Verëffentlechung net gesellschaftlech Virdeeler gëtt baséiert op sengem Sécherheetsprofil an der Erméiglechung vun der Fuerschung. Wéi och ëmmer, waakreg Iwwerwaachung vu potenzielle Schued wäert kritesch bleiwen.

Aktivéiert déi nächst Wave vun AI Innovatioun

Gemma als Open Source Modellfamill ze verëffentlechen steet fir Fortschrëtter an der AI Gemeinschaft ze spären:

  • Accessibilitéit: Gemma reduzéiert Barrièren fir Organisatiounen ze bauen mat modernste NLP, déi virdru mat héije Rechen- / Datekäschte konfrontéiert waren fir hir eege LLMs ze trainéieren.
  • Nei Uwendungen: Duerch oppe Sourcing pretrained an ofgestëmmt Checkpoints erméiglecht DeepMind méi einfach Entwécklung vu profitabel Apps a Beräicher wéi Educatioun, Wëssenschaft an Accessibilitéit.
  • Customization: Entwéckler kënnen Gemma weider fir Industrie oder Domain-spezifesch Uwendungen personaliséieren duerch weider Training op propriétaire Daten.
  • Fuerschung: Open Modeller wéi Gemma förderen méi Transparenz an Audit vun aktuellen NLP Systemer, beliicht zukünfteg Fuerschungsrichtungen.
  • Innovatioun: D'Disponibilitéit vu staarke Baseline Modeller wéi Gemma beschleunegt de Fortschrëtt op Beräicher wéi Biasmitigatioun, Faktualitéit an AI Sécherheet.

Andeems Dir dem Gemma seng Fäegkeeten all duerch Open Sourcing ubitt, hofft DeepMind eng verantwortlech Entwécklung vun AI fir sozial Gutt ze stimuléieren.

D'Strooss Ahead

Mat all Sprong an der AI si mir méi no bei Modeller déi d'mënschlech Intelligenz iwwer all Domain rivaliséieren oder iwwerschreiden. Systemer wéi Gemma ënnersträichen wéi séier Fortschrëtter a selbst iwwerwaachte Modeller ëmmer méi fortgeschratt kognitiv Fäegkeeten opmaachen.

Wéi och ëmmer, d'Aarbecht bleift fir d'Zouverlässegkeet, d'Interpretabilitéit an d'Kontrollbarkeet vun AI ze verbesseren - Beräicher wou mënschlech Intelligenz nach ëmmer héchst herrscht. Domainen wéi Mathematik markéieren dës persistent Lücken, mat Gemma Scoring 64% op MMLU am Verglach zu geschätzte 89% mënschlech Leeschtung.

Dës Lücken zoumaachen wärend d'Sécherheet an d'Ethik vun ëmmer méi fähig AI Systemer assuréieren wäerten déi zentral Erausfuerderunge sinn an de kommende Joeren. De richtege Gläichgewiicht tëscht Oppenheet a Vorsicht ze schloen wäert kritesch sinn, well DeepMind zielt den Zougang zu Virdeeler vun AI ze demokratiséieren wärend opkomende Risiken.

Initiativen fir AI Sécherheet ze förderen - wéi dem Dario Amodei säin ANC, dem DeepMind's Ethics & Society Team, an dem Anthropic's Constitutional AI - signaliséieren eng wuessend Unerkennung vun dësem Noutwendegkeete fir Nuancen. Sinnvoll Fortschrëtter erfuerderen oppenen, evidenzbaséierten Dialog tëscht Fuerscher, Entwéckler, Politiker an de Public.

Wann verantwortlech navigéiert, stellt d'Gemma net de Sommet vun der AI duer, mee e Basecamp fir déi nächst Generatioun vun AI Fuerscher, déi am DeepMind seng Schrëtt a Richtung fair, profitabel kënschtlech allgemeng Intelligenz verfollegen.

Konklusioun

Dem DeepMind seng Verëffentlechung vu Gemma Modeller bedeit eng nei Ära fir Open Source AI - eng déi schmuel Benchmarks a generaliséierter Intelligenzfäegkeeten iwwerschreift. Extensiv getest fir Sécherheet a breet zougänglech, Gemma setzt en neie Standard fir verantwortlech Open Sourcing an AI.

Gedriwwen vun engem kompetitive Geescht mat kooperative Wäerter temperéiert, deelt Duerchbroch wéi Gemma all Booter am AI-Ökosystem. Déi ganz Gemeinschaft huet elo Zougang zu enger villsäiteger LLM Famill fir hir Initiativen ze fueren oder z'ënnerstëtzen.

Wärend d'Risike bleiwen, gëtt dem DeepMind seng technesch an ethesch Diligence Vertrauen datt dem Gemma seng Virdeeler méi wéi seng potenziell Schuede sinn. Wéi AI Fäegkeeten ëmmer méi fortgeschratt ginn, wäert dës Nuance tëscht Oppenheet a Vorsicht kritesch sinn.

Gemma hëlt eis ee Schrëtt méi no un AI déi d'ganz Mënschheet profitéiert. Awer vill grouss Erausfuerderunge waarden nach ëmmer laanscht de Wee fir eng benevol kënschtlech allgemeng Intelligenz. Wann AI Fuerscher, Entwéckler a Gesellschaft am grousse Ganzen kollaborativ Fortschrëtter behalen kënnen, kann Gemma enges Daags als historesche Basecamp gesi ginn, anstatt de leschte Sommet.

Ech hunn déi lescht fënnef Joer verbruecht an déi faszinéierend Welt vum Machine Learning an Deep Learning ënnerzegoen. Meng Leidenschaft an Expertise hunn mech dozou gefouert fir zu iwwer 50 verschiddenste Software Engineering Projeten bäizedroen, mat engem besonnesche Fokus op AI / ML. Meng kontinuéierlech Virwëtzegkeet huet mech och Richtung Natural Language Processing gezunn, e Feld dat ech gär hunn weider ze entdecken.