stomp Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI - Unite.AI
Verbinding met ons

Kunsmatige Intelligensie

Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI

mm

Gepubliseer

 on

Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI

Ondernemings ondersoek vandag toenemend maniere om groot taalmodelle (LLM's) te benut om produktiwiteit te verhoog en intelligente toepassings te skep. Baie van die beskikbare LLM-opsies is egter generiese modelle wat nie aangepas is vir gespesialiseerde ondernemingsbehoeftes soos data-analise, kodering en taakoutomatisering nie. Voer in Sneeuvlok Arktiese – 'n moderne LLM wat doelgerig ontwerp en geoptimaliseer is vir kernondernemingsgebruiksgevalle.

Arctic, ontwikkel deur die KI-navorsingspan by Snowflake, verskuif die grense van wat moontlik is met doeltreffende opleiding, koste-effektiwiteit en 'n ongeëwenaarde vlak van openheid. Hierdie revolusionêre model blink uit by sleutelondernemingsmaatstawwe terwyl dit baie minder rekenaarkrag vereis in vergelyking met bestaande LLM's. Kom ons duik in wat Arctic 'n speletjie-wisselaar maak vir ondernemings-KI.

Ondernemingsintelligensie Herdefinieer In sy kern is Arctic laser-gefokus op die lewering van uitsonderlike prestasie op maatstawwe wat werklik saak maak vir ondernemings – kodering, SQL-navrae, komplekse instruksies wat volg, en die vervaardiging van gegronde, feite-gebaseerde uitsette. Snowflake het hierdie kritieke vermoëns gekombineer in 'n roman "onderneming intelligensie" metrieke.

Die resultate spreek vanself. Arctic voldoen aan of presteer beter as modelle soos LLAMA 7B en LLAMA 70B op ondernemingsintelligensie-maatstawwe terwyl hulle minder as die helfte van die rekenaarbegroting vir opleiding gebruik. Merkwaardig, ten spyte van die gebruik 17 keer minder rekenaarhulpbronne as LLAMA 70B, Arctic bereik pariteit op gespesialiseerde toetse soos kodering (HumanEval+, MBPP+), SQL-generering (Spider) en instruksievolg (IFEval).

Maar Arctic se bekwaamheid gaan verder as net om ondernemingsmaatstawwe te bereik. Dit handhaaf sterk prestasie oor algemene taalbegrip, redenering en wiskundige aanleg in vergelyking met modelle wat opgelei is met eksponensieel hoër berekeningsbegrotings soos DBRX. Hierdie holistiese vermoë maak Arctic 'n onverbeterlike keuse om die diverse KI-behoeftes van 'n onderneming aan te pak.

Die Innovasie

Digte-MoE hibriede transformator So hoe het die Snowflake-span so 'n ongelooflike bekwame dog doeltreffende LLM gebou? Die antwoord lê in Arctic se toonaangewende Dense Mixture-of-Experts (MoE) Hibriede Transformator-argitektuur.

Tradisionele digte transformatormodelle word al hoe duurder om op te lei namate hul grootte groei, met berekeningsvereistes wat lineêr toeneem. Die MoE-ontwerp help om dit te omseil deur veelvuldige parallelle toevoernetwerke (kundiges) te gebruik en slegs 'n subset vir elke invoertoken te aktiveer.

Dit is egter nie genoeg om bloot 'n MoE-argitektuur te gebruik nie – Arctic kombineer die sterk punte van beide digte en MoE-komponente vernuftig. Dit koppel 'n 10 miljard parameter digte transformator enkodeerder met 'n 128 kundige residuele MoE multi-laag perceptron (MLP) laag. Hierdie digte MoE hibriede model het altesaam 480 miljard parameters, maar slegs 17 miljard is aktief op enige gegewe tydstip met behulp van top-2-hekke.

Die implikasies is diepgaande – Arctic bereik ongekende modelkwaliteit en -kapasiteit terwyl dit merkwaardig rekenaardoeltreffend bly tydens opleiding en afleiding. Arctic het byvoorbeeld 50% minder aktiewe parameters as modelle soos DBRX tydens afleiding.

Maar modelargitektuur is net een deel van die storie. Arctic se uitnemendheid is die hoogtepunt van verskeie baanbrekerstegnieke en insigte wat deur die Snowflake-navorsingspan ontwikkel is:

  1. Ondernemingsgerigte opleidingsdatakurrikulum Deur uitgebreide eksperimentering het die span ontdek dat generiese vaardighede soos gesonde verstand redenering vroeg aangeleer moet word, terwyl meer komplekse spesialisasies soos kodering en SQL die beste later in die opleidingsproses aangeleer word. Arctic se datakurrikulum volg 'n drie-fase benadering wat menslike leervorderings naboots.

Die eerste teratokens fokus op die bou van 'n breë algemene basis. Die volgende 1.5 teratokens konsentreer op die ontwikkeling van ondernemingsvaardighede deur data wat aangepas is vir SQL, koderingstake en meer. Die finale teratokens verfyn Arctic se spesialisasies verder deur gebruik te maak van verfynde datastelle.

  1. Optimale argitektoniese keuses Terwyl MoE's beter kwaliteit per rekenaar beloof, is die keuse van die regte konfigurasies van kardinale belang, maar word dit swak verstaan. Deur gedetailleerde navorsing het Snowflake op 'n argitektuur beland wat 128 kundiges in diens het met top-2-hekke elke laag na die evaluering van kwaliteit-doeltreffendheid-afwegings.

Die verhoging van die aantal kundiges bied meer kombinasies, wat modelkapasiteit verbeter. Dit verhoog egter ook kommunikasiekoste, so Snowflake het op 128 noukeurig ontwerpte "gekondenseerde" kundiges beland wat via top-2-hekke as die optimale balans geaktiveer is.

  1. System Co-Design Maar selfs 'n optimale model argitektuur kan ondermyn word deur stelsel knelpunte. Die Snowflake-span het dus ook hier vernuwe – die modelargitektuur saam met die onderliggende opleiding- en afleidingstelsels ontwerp.

Vir doeltreffende opleiding is die digte en MoE-komponente gestruktureer om oorvleuelende kommunikasie en berekening moontlik te maak, wat aansienlike kommunikasie-bokoste verberg. Aan die afleidingskant het die span NVIDIA se innovasies gebruik om hoogs doeltreffende ontplooiing moontlik te maak ten spyte van Arctic se skaal.

Tegnieke soos FP8-kwantisering maak dit moontlik om die volledige model op 'n enkele GPU-nodus te pas vir interaktiewe afleiding. Groter groepe betrek Arctic se parallelisme-vermoëns oor veelvuldige nodusse terwyl hulle indrukwekkend rekendoeltreffend bly danksy sy kompakte 17B aktiewe parameters.

Met 'n Apache 2.0-lisensie is Arctic se gewigte en kode ongeskonde beskikbaar vir enige persoonlike, navorsings- of kommersiële gebruik. Maar Snowflake het baie verder gegaan deur hul volledige dataresepte, modelimplementerings, wenke en die diep navorsingsinsigte wat Arctic aandryf, oop-sourcing.

Die "Arktiese kookboek” is 'n omvattende kennisbasis wat elke aspek van die bou en optimalisering van 'n grootskaalse MoE-model soos Arctic dek. Dit distilleer sleutelkennis oor dataverkryging, modelargitektuurontwerp, stelsel-mede-ontwerp, geoptimaliseerde opleiding/afleidingskemas en meer.

Van die identifisering van optimale datakurrikulums tot die argitektering van MoE's terwyl samestellers, skeduleerders en hardeware saamgeoptimaliseer word – hierdie uitgebreide hoeveelheid kennis demokratiseer vaardighede wat voorheen beperk was tot elite KI-laboratoriums. Die Arctic Cookbook versnel leerkurwes en bemagtig besighede, navorsers en ontwikkelaars wêreldwyd om hul eie koste-effektiewe, pasgemaakte LLM's vir feitlik enige gebruiksgeval te skep.

Aan die gang met Arctic

Vir maatskappye wat gretig is om Arktiese gebruik te maak, bied Snowflake verskeie paaie om vinnig te begin:

Bedienerlose afleiding: Snowflake-kliënte kan gratis toegang tot die Arctic-model kry op Snowflake Cortex, die maatskappy se volledig bestuurde KI-platform. Daarbenewens is Arctic beskikbaar in alle groot modelkatalogusse soos AWS, Microsoft Azure, NVIDIA en meer.

Begin van nuuts af: Die oopbronmodelgewigte en -implementerings stel ontwikkelaars in staat om Arctic direk in hul toepassings en dienste te integreer. Die Arktiese repo bied kodevoorbeelde, ontplooiingstutoriale, fyninstelling van resepte en meer.

Bou pasgemaakte modelle: Danksy die uitgebreide gidse van die Arctic Cookbook kan ontwikkelaars hul eie pasgemaakte MoE-modelle van nuuts af bou wat geoptimaliseer is vir enige gespesialiseerde gebruiksgeval deur gebruik te maak van leer uit Arctic se ontwikkeling.

'n Nuwe Era van Open Enterprise KI Arctic is meer as net nog 'n kragtige taalmodel - dit lui 'n nuwe era in van oop, kostedoeltreffende en gespesialiseerde KI-vermoëns wat doelgerig vir die onderneming gebou is.

Van rewolusie van data-analise en koderingsproduktiwiteit tot aandryf van taakoutomatisering en slimmer toepassings, Arctic se onderneming-eerste DNA maak dit 'n onverbeterlike keuse bo generiese LLM's. En deur open source nie net die model nie, maar die hele R&D-proses daaragter, bevorder Snowflake 'n kultuur van samewerking wat die hele KI-ekosisteem sal verhef.

Soos ondernemings toenemend generatiewe KI omhels, bied Arctic 'n gewaagde bloudruk vir die ontwikkeling van modelle wat objektief beter is vir produksiewerkladings en ondernemingsomgewings. Die samevloeiing van voorpuntnavorsing, ongeëwenaarde doeltreffendheid en 'n standvastige oop etos stel 'n nuwe maatstaf in die demokratisering van KI se transformerende potensiaal.

Hier is 'n afdeling met kodevoorbeelde oor hoe om die Snowflake Arctic-model te gebruik:

Hands-on met Arctic

Noudat ons gedek het wat Arctic werklik baanbrekend maak, kom ons duik in hoe ontwikkelaars en datawetenskaplikes hierdie kragstasiemodel kan begin gebruik.
Uit die boks is Arctic beskikbaar, vooraf opgelei en gereed om te ontplooi deur groot model-hubs soos Hugging Face en vennoot KI-platforms. Maar die werklike krag daarvan kom na vore wanneer dit aangepas en verfyn word vir jou spesifieke gebruiksgevalle.

Arctic se Apache 2.0-lisensie bied volle vryheid om dit in jou toepassings, dienste of pasgemaakte KI-werkvloei te integreer. Kom ons loop deur 'n paar kodevoorbeelde deur die transformatorsbiblioteek te gebruik om jou aan die gang te kry:
Basiese afleiding met Arktiese

Vir vinnige teksgenerering gebruik gevalle, kan ons Arctic laai en basiese afleiding baie maklik uitvoer:

from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")
# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Dit moet iets uitstuur soos:

“Die hoofstad van Frankryk is Parys. Parys is die grootste stad in Frankryk en die land se ekonomiese, politieke en kulturele sentrum. Dit is die tuiste van bekende landmerke soos die Eiffeltoring, die Louvre-museum en die Notre-Dame-katedraal.”

Soos u kan sien, verstaan ​​Arctic die navraag naatloos en bied 'n gedetailleerde, gegronde antwoord wat sy robuuste taalverstaanvermoë benut.

Fynafstelling vir gespesialiseerde take

Alhoewel dit indrukwekkend buite die boks is, skyn Arctic werklik wanneer dit aangepas en fyn ingestel is op jou eie data vir gespesialiseerde take. Snowflake het uitgebreide resepte verskaf wat dek:

  • Samestelling van opleidingsdata van hoë gehalte wat aangepas is vir u gebruiksgeval
  • Implementering van pasgemaakte multi-stadium opleidingskurrikulums
  • Gebruik doeltreffende LoRA-, P-Tuning- of FactorizedFusion-fynafstellingsbenaderings
  • Optimalisasies vir oordeelkundige SQL, kodering of ander sleutelondernemingsvaardighede

Hier is 'n voorbeeld van hoe om Arctic op jou eie koderingsdatastelle te verfyn met behulp van LoRA en Snowflake se resepte:

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)
# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)
# Your coding datasets
data = load_coding_datasets()
# Fine-tune with Snowflake's recipes
train(model, data, ...)

Hierdie kode illustreer hoe jy Arctic moeiteloos kan laai, 'n LoRA-konfigurasie kan inisieer wat aangepas is vir kodegenerering, en dan die model op jou eie koderingsdatastelle kan verfyn deur gebruik te maak van Snowflake se leiding.

Gepasmaak en fyn ingestel, word Arctic 'n private kragbron wat ingestel is om ongeëwenaarde prestasie op jou kernondernemingswerkvloei en belanghebbendebehoeftes te lewer.

Arktiese se vinnige innovasie-siklus

Een van die mees indrukwekkende aspekte van Arktiese is die blitsige tempo waarteen Snowflake se KI-navorsingspan hierdie voorpuntmodel aan die wêreld bedink, ontwikkel en vrygestel het. Van begin tot oopbronvrystelling het die hele Arktiese projek minder as drie maande geneem en het slegs ongeveer een agtste van die berekeningsbegroting gebruik gemaak wat tipies is vir die opleiding van soortgelyke groot taalmodelle.

Hierdie vermoë om die nuutste KI-navorsing vinnig te herhaal, te innoveer en te produseer, is werklik merkwaardig. Dit demonstreer Snowflake se diepgaande tegniese vermoëns en posisioneer die maatskappy om voortdurend die grense te verskuif met die ontwikkeling van nuwe, ondernemingsgeoptimaliseerde KI-vermoëns.

Die Arktiese familie en inbeddings

Arctic is net die begin van Snowflake se ambisies in die onderneming LLM-ruimte. Die maatskappy het reeds die Snowflake Arctic Embed-familie van toonaangewende teksinbeddingsmodelle wat geoptimaliseer is vir herwinningsprestasie oor veelvuldige grootteprofiele, oopgemaak.

Soos hieronder geïllustreer, bereik die Arctic Embed-modelle die nuutste herwinning akkuraatheid op die gerespekteerde MTEB (teksherwinning) maatstaf, wat beter as ander toonaangewende inbeddingsmodelle presteer, insluitend geslote aanbiedinge van groot tegnologiereuse.

[Voeg prent in wat MTEB-herwinning-maatstafresultate vir Arctic Embed-modelle wys]

Hierdie inbeddingsmodelle komplementeer die Arctic LLM en stel ondernemings in staat om kragtige oplossings vir die beantwoording van vrae en herwinning versterkte generasie uit 'n geïntegreerde oopbronstapel te bou.

Maar Snowflake se padkaart strek veel verder as net Arktiese en inbeddings. Die maatskappy se KI-navorsers is hard besig om die Arktiese familie uit te brei met nuwe modelle wat aangepas is vir multimodale take, spraak, video en meer grensvermoëns – alles gebou volgens dieselfde beginsels van spesialisasie, doeltreffendheid en openheid.

Vennootskap vir 'n oop KI-ekosisteem Snowflake verstaan ​​dat die verwesenliking van die volle potensiaal van oop, ondernemingsgraad KI vereis dat 'n ryk ekosisteem van vennootskappe regoor die KI-gemeenskap gekweek word. Die Arktiese vrystelling het reeds samewerking met groot platforms en verskaffers gegalvaniseer:

NVIDIA het nou saamgewerk met Snowflake om Arctic te optimaliseer vir doeltreffende ontplooiing deur gebruik te maak van NVIDIA se nuutste KI-afleidingstapel, insluitend TensorRT, Triton en meer. Dit stel ondernemings in staat om Arctic op skaal kostedoeltreffend te bedien.

Hugging Face, die toonaangewende oopbron-modelsentrum, het Arctic in sy biblioteke en modelbewaarplekke verwelkom. Dit laat naatlose integrasie van Arctic in bestaande Hugging Face-gebaseerde KI-werkvloeie en toepassings toe.

Platforms soos Replicate, SageMaker en meer het vinnig beweeg om gehuisvesde demonstrasies, API's en vlot integrasiepaaie vir Arctic aan te bied, wat die aanvaarding daarvan versnel het.

Oopbron het die ontwikkeling van Arktiese gebied gelei, en oop ekosisteme bly sentraal tot die evolusie daarvan. Snowflake is daartoe verbind om ryk samewerking met navorsers, ontwikkelaars, vennote en ondernemings wêreldwyd te bevorder om die grense te verskuif van wat moontlik is met oop, gespesialiseerde KI-modelle.

Ek het die afgelope vyf jaar my verdiep in die fassinerende wêreld van Masjienleer en Deep Learning. My passie en kundigheid het daartoe gelei dat ek bygedra het tot meer as 50 diverse sagteware-ingenieursprojekte, met 'n spesifieke fokus op KI/ML. My voortdurende nuuskierigheid het my ook na natuurlike taalverwerking gelok, 'n veld wat ek gretig is om verder te verken.