stub Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI - Unite.AI
Girêdana bi me

Îstîxbaratê ya sûnî

Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI

mm

Published

 on

Snowflake Arctic: The Cutting-Edge LLM for Enterprise AI

Pargîdanî îro her ku diçe rêgezên ku modelên zimanên mezin (LLM) bi kar bînin da ku hilberîneriyê zêde bikin û sepanên jîr biafirînin digerin. Lêbelê, gelek vebijarkên LLM yên berdest modelên gelemperî ne ku ji bo hewcedariyên pargîdaniya pispor ên mîna analîzkirina daneyê, kodkirin, û otomasyona peywirê ne hatine çêkirin. Derbasbûn Snowflake Arktîk - LLM-ya herî pêşkeftî ku bi mebest ji bo dozên karanîna pargîdaniya bingehîn hatî sêwirandin û xweşbîn kirin.

Ji hêla tîmê lêkolînê ya AI-ê li Snowflake ve hatî pêşve xistin, Arctic sînorên ku bi perwerdehiya bikêrhatî, lêçûn-bandorbûna lêçûn, û astek bêhempa ya vekirîbûnê re derbas dike. Ev modela şoreşgerî di pîvanên pargîdaniya sereke de pêş dikeve dema ku li gorî LLM-yên heyî hewceyê hêza hesabkerê pir kêmtir hewce dike. Werin em bikevin nav tiştê ku Arctic ji bo AI-ya pargîdanî guhezkarek lîstikê dike.

Îstixbarata Pargîdaniyê ji nû ve hate pênase kirin Di bingeha xwe de, Arctic-lazer li ser peydakirina performansa awarte ya li ser metrîkên ku bi rastî ji pargîdaniyan re girîng in - kodkirin, lêpirsîna SQL, şopandina rêwerzên tevlihev, û hilberandina derketinên bingehîn, li gorî rastiyan. Snowflake van kapasîteyên krîtîk di romanekê de berhev kiriye "îstîxbarata pargîdanî”metric.

Encam ji bo xwe dipeyivin. Arktîk bi modelên mîna LLAMA 7B û LLAMA 70B re li ser pîvanên îstîxbarata pargîdanî dicive an pêşdetir dibe dema ku ji bo perwerdehiyê kêmtirî nîvê budceya hesabkirinê bikar tîne. Balkêş e, tevî ku bikar tîne 17 caran kêmtir çavkaniyên hesabkirinê ji LLAMA 70B, Arktîk li ser ceribandinên pispor ên mîna kodkirin (HumanEval+, MBPP+), hilberîna SQL (Spider), û rêwerzên jêrîn (IFEval) wekheviyê bi dest dixe.

Lê jêhatîbûna Arktîkê ji pîvanên pargîdaniya acing wêdetir e. Ew performansa xurt li seranserê têgihîştina zimanê gelemperî, raman, û jêhatîbûna matematîkî li gorî modelên ku bi budceyên hesabkerî yên wekî DBRX-ê bi qawet bilindtir hatine perwerde kirin diparêze. Vê kapasîteya tevdeyî ji bo çareserkirina hewcedariyên cihêreng ên AI-ê yên pargîdaniyek Arctic vebijarkek bêhempa dike.

The Innovation

Dense-MoE Hybrid Transformer Ji ber vê yekê tîmê Snowflake çawa LLMek wusa jêhatî û lê bikêrhatî ava kir? Bersiv di mîmariya Transformer a Hybrid a Dense Mixture-of-Experts (MoE) ya pêşkeftî ya Arktîk de ye.

Modelên trafoya zirav a kevneşopî her ku mezinbûna wan mezin dibe, perwerdekirina wan her ku diçe girantir dibe, digel ku hewcedariyên hesabkerî bi xêzikî zêde dibin. Sêwirana MoE bi karanîna gelek torên pêşdebir-pêşverû yên paralel (pispor) û tenê ji bo her nîşanek têketinê binkeyek aktîf dike ji vê yekê re dibe alîkar.

Lêbelê, bi tenê karanîna mîmariya MoE ne bes e - Arctic hêza her du pêkhateyên dagirtî û MoE bi jîrbûnî hev dike. Ew 10 mîlyar parametre şîfrekerek veguherîner a dagirtî bi qatek 128 pisporê mayî ya MoE perceptronê pir-tebeqe (MLP) re dike. Ev modela hybrid a dendik-MoE bi tevahî 480 mîlyar parametre lê tenê 17 mîlyar di her wextê diyarkirî de bi karanîna deriyê top-2 çalak in.

Encam kûr in - Arctic kalîte û kapasîteya modela nedîtî digihîje di heman demê de ku di dema perwerdehiyê û encamdanê de bi rengek berbiçav-berbiçav dimîne. Mînakî, Arktîk di dema encamdanê de ji modelên mîna DBRX% 50 kêmtir parametreyên çalak hene.

Lê mîmariya model tenê beşek çîrokê ye. Kêmasiya Arktîkê encama çend teknîk û têgihîştina pêşeng e ku ji hêla tîmê lêkolînê Snowflake ve hatî pêşve xistin:

  1. Mufredata Daneyên Perwerdehiyê ya Xweser-Perketî Bi ceribandinek berfireh, tîmê kifş kir ku jêhatîbûnên gelemperî yên mîna ramana hevpar divê zû fêr bibin, dema ku pisporiyên tevlihevtir ên mîna kodkirin û SQL çêtirîn di pêvajoya perwerdehiyê de paşê têne bidestxistin. Bernameya daneya Arktîkê nêzîkatiyek sê-qonaxê dişopîne ku pêşkeftinên fêrbûna mirovan dişibîne.

Teratokenên yekem li ser avakirina bingehek giştî ya berfireh hûr dibin. 1.5 teratokenên din li ser pêşkeftina jêhatîbûnên pargîdaniyê bi navgîniya daneyên ku ji bo SQL, peywirên kodkirinê, û hêj bêtir hatine veqetandin, hûr dibin. Teratokenên dawîn pisporiyên Arktîkê bi karanîna danûstendinên rafînerî paqij dikin.

  1. Hilbijartinên Mîmarî yên Optimal Dema ku MoEs ji bo hesabkirinê qalîteya çêtir soz didin, bijartina mîhengên rast pir girîng e lê kêm tê fêm kirin. Di nav lêkolînek hûrgulî de, Snowflake ket ser mîmariyek ku 128 pisporên ku bi top-2 deriyên her qatê dixebitînin piştî nirxandina danûstendinên qalîteyê-kêrhatî.

Zêdekirina hejmara pisporan bêtir berhevokan peyda dike, kapasîteya modelê zêde dike. Lêbelê, ev di heman demê de lêçûnên ragihandinê jî zêde dike, ji ber vê yekê Snowflake li ser 128 pisporên bi baldarî "tevlihevkirî" hatine sêwirandin ku bi riya deriyê top-2-ê wekî hevsengiya çêtirîn çalak kirin.

  1. Hev-Sêwirana Pergalê Lê tewra mîmariyek modela çêtirîn jî dikare ji hêla tengahiyên pergalê ve were xera kirin. Ji ber vê yekê tîmê Snowflake li vir jî nûjen kir - bi pergalên perwerdehî û encamnameyê yên bingehîn re hev-dizaynkirina mîmariya modelê.

Ji bo perwerdehiya bikêrhatî, hêmanên zexm û MoE hatine saz kirin da ku pêwendiya pêwendiyê û hesabkirinê pêk bînin, sermayên ragihandinê yên girîng veşêrin. Di aliyê encamnameyê de, tîmê nûjeniyên NVIDIA-yê bi kar anî da ku tevî pîvana Arktîkê veguheztina pir bikêrhatî bike.

Teknîkên mîna quantîzasyona FP8 dihêle ku modela tevahî li ser yek girêkek GPU-yê ji bo encamdana înteraktîf bicîh bikin. Parçeyên mezin bi kapasîteyên paralelîzma Arktîkê di nav gelek girêkan de tevdigerin û di heman demê de bi saya parametreyên wê yên aktîf ên 17B-ya kompakt bi bandorkeriya hesabkirinê dimînin.

Bi lîsansek Apache 2.0, giranî û koda Arctic ji bo karanîna kesane, lêkolînî an bazirganî bênavber peyda dibin. Lê Snowflake pir pêşde çûye, reçeteyên daneya wan ên bêkêmasî, pêkanînên modelê, serişte û nerînên lêkolîna kûr ên ku Arctic hêzdar dikin vekiriye.

The "Arctic Cookbook” bingehek zanyarî ya berfireh e ku her aliyên avakirin û xweşbînkirina modelek MoE-ya mezin a mîna Arktîkê vedihewîne. Ew fêrbûnên sereke li seranserê çavkaniya daneyê, sêwirana mîmariya modelê, hev-sêwirana pergalê, pileyên perwerdehiya xweşbîn / encamgirtinê û hêj bêtir distîne.

Ji naskirina qursên daneya çêtirîn bigire heya mîmarkirina MoE-yê dema ku berhevkar, plansazker û hardware hev-optîmîze dike - ev beşê berfireh a zanînê jêhatîyên ku berê di laboratîfên AI-ê yên elît de hatine sînordar kirin demokratîze dike. Arctic Cookbook lezkirina fêrbûnê bilez dike û karsazî, lêkolîner û pêşdebiran li çaraliyê cîhanê hêz dide ku LLM-yên xwe yên lêçûn-bandor, lihevhatî ji bo hema hema her rewşê bikar bînin biafirînin.

Destpêkirina bi Arktîkê

Ji bo pargîdaniyên ku dixwazin Arctic bikar bînin, Snowflake gelek riyan pêşkêşî dike ku zû dest pê bikin:

Encama bê Server: Xerîdarên Snowflake dikarin modela Arktîkê belaş li ser Snowflake Cortex, platforma AI-ê ya bi tevahî-rêvebir a pargîdaniyê bigihînin. Ji xeynî wê, Arctic li hemî katalogên modela sereke yên mîna AWS, Microsoft Azure, NVIDIA, û hêj bêtir peyda dibe.

Ji Serûpê dest pê bikin: Giran û pêkanînên modela çavkaniya vekirî dihêle ku pêşdebiran rasterast Arctic di sepan û karûbarên xwe de yek bikin. Repoya Arktîkê nimûneyên kodê, dersên bicîhkirinê, reçeteyên birêkûpêk, û hêj bêtir peyda dike.

Modelên Xweser ava bikin: Bi saya rêberên berfireh ên Arctic Cookbook, pêşdebir dikarin modelên xwe yên MoE-ya xwerû ji nû ve ava bikin ku ji bo her dozek karanîna pispor bi karanîna fêrbûnên ji pêşkeftina Arctic ve hatî xweşbîn kirin.

Serdemek Nû ya Open Enterprise AI Arctic ji modelek zimanek din a hêzdar wêdetir e - ew serdemek nû ya kapasîteyên AI-ê yên vekirî, lêçûn û pispor ên ku ji bo pargîdaniyê hatine çêkirin destnîşan dike.

Ji şoreşgerîkirina analîtîka daneyan û hilberîna kodkirinê bigire heya bi hêzkirina otomasyona peywirê û serîlêdanên biaqiltir, DNA-ya pargîdaniya yekem a Arktîkê wê li ser LLM-yên gelemperî bijarek bêhempa dike. Û bi çavkaniya vekirî ne tenê modelê lê tevahiya pêvajoya R&D ya li pişt wê, Snowflake çandek hevkariyê çêdike ku dê tevahiya ekosîstema AI-ê bilind bike.

Gava ku pargîdanî her ku diçe AI-ya hilberîner hembêz dikin, Arctic nexşeyek wêrek pêşkêşî dike ji bo pêşdebirina modelên ku bi objektîf ji bo barkirina xebata hilberînê û hawîrdorên pargîdaniyê bilindtir in. Têkiliya wê ya lêkolîna pêşkeftî, karbidestiya bêhempa û etîkek vekirî ya domdar pîvanek nû di demokratîzekirina potansiyela veguherîner a AI-yê de destnîşan dike.

Li vir beşek bi mînakên kodê hene ku meriv çawa modela Snowflake Arctic bikar tîne:

Bi Arktîkê re dest pê kirin

Naha ku me tiştê ku Arktîkê bi rastî serpêhatî dike vegirtiye, em bikevin nav ka çawa pêşdebir û zanyarên daneyê dikarin dest bi xebitandina vê modela hêzê bikin.
Li derveyî qutiyê, Arctic pêş-perwerdekirî heye û amade ye ku bi navendên modela sereke yên mîna Hugging Face û platformên AI-ê yên hevkar were bicîh kirin. Lê hêza wê ya rastîn dema ku meriv wê ji bo dozên karanîna weya taybetî xweş dike û xweş dike derdikeve holê.

Lîsansa Apache 2.0 ya Arctic azadîya bêkêmasî peyda dike ku hûn wê di serîlêdan, karûbar an karûbarên AI-ê yên xwerû de yek bikin. Ka em li çend mînakên kodê bi karanîna pirtûkxaneya transformatoran bimeşin da ku hûn dest pê bikin:
Encama bingehîn bi Arktîkê re

Ji bo dozên karanîna hilberîna nivîsê ya bilez, em dikarin Arktîkê bar bikin û encamên bingehîn pir bi hêsanî bimeşînin:

from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")
# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Divê ev tiştek wekî derxe:

“Paytextê Fransa Parîs e. Parîs bajarê herî mezin ê Fransayê ye û navenda aborî, siyasî û çandî ya welêt e. Ew cîhê nîşanên navdar ên mîna Birca Eiffel, muzexaneya Louvre, û Katedrala Notre-Dame ye.

Wekî ku hûn dikarin bibînin, Arctic bêkêmasî pirsê fam dike û bersivek hûrgulî, zexm peyda dike ku kapasîteyên xwe yên têgihîştina zimanî yên zexm dike.

Ji bo Karên Pisporî verastkirin

Dema ku Arktîk li derveyî qutiyê bi heybet e, dema ku ji bo karên pispor li ser daneyên weya xwedaniyê têne xweş kirin û xweş têne çêkirin, bi rastî ronî dike. Snowflake reçeteyên berfireh pêşkêşî dike:

  • Dabeşkirina daneyên perwerdehiya kalîteya bilind ku ji bo doza weya karanîna we hatî çêkirin
  • Bicîhkirina qursên perwerdehiya pir-qonaxa xwerû
  • Bikaranîna LoRA, P-Tuning an FactorizedFusion-ê bikêrhatî nêzîkatiyên baş-ahengê
  • Optimîzasyonên ji bo têgihîştina SQL, kodkirin an jêhatîbûnên pargîdaniya sereke yên din

Li vir mînakek e ku meriv çawa Arktîkê li ser daneyên kodkirina xweya xwe bi karanîna şîretên LoRA û Snowflake-ê baş rast dike:

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)
# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)
# Your coding datasets
data = load_coding_datasets()
# Fine-tune with Snowflake's recipes
train(model, data, ...)

Ev kod diyar dike ku hûn çawa dikarin Arktîkê bi hêsanî bar bikin, mîhengek LoRA-ya ku ji bo hilberîna kodê hatî vesaz kirin dest pê bikin, û dûv re modela li ser daneyên kodên xwe yên xwedan rêberiya Snowflake-ê bi kar bînin, baş bikin.

Xweserkirî û birêkûpêk, Arctic dibe hêzek taybet a ku ji bo peydakirina performansa bêhempa li ser karûbarê pargîdaniya weya bingehîn û hewcedariyên beşdaran peyda dike.

Çîroka Nûjeniya Bilez a Arktîkê

Yek ji hêmanên herî bibandor ên Arktîkê ew leza ku tê de tîmê lêkolînê ya AI-ê ya Snowflake ev modela pêşkeftî ji cîhanê re çêkir, pêşxist û derxist. Ji destpêkê heya serbestberdana çavkaniya vekirî, tevahiya projeya Arktîkê kêmtirî sê mehan girt û tenê ji heştan yek ji budceya hesabkirinê ya ku ji bo perwerdekirina modelên zimanên mezin ên bi heman rengî bi kar anî.

Ev şiyana ku zû dubarekirin, nûkirin û hilberandina lêkolîna AI-ya herî pêşkeftî ye bi rastî balkêş e. Ew kapasîteyên teknîkî yên kûr ên Snowflake destnîşan dike û pargîdanî dihêle ku bi domdarî sînorên pêşvebirina kapasîteyên AI-ê yên nûjen, pargîdanî-optimîzekirî bişkîne.

Malbata Arktîk û embeddings

Arctic tenê destpêka ambargoyên Snowflake di qada pargîdaniya LLM de ye. Pargîdanî berê xwe daye malbata Snowflake Arctic Embed a modelên pêvekirina nivîsê ya pêşeng-pîşesaziyê ku ji bo performansa vegerandinê di nav gelek profîlên mezinahiyê de xweşbîn bûne.

Wekî ku li jêr tê destnîşan kirin, modelên Arctic Embed rastbûna vegerandina herî pêşkeftî li ser pîvana rêzdar MTEB (vegerandina nivîsê) bi dest dixin, ji modelên din ên tevnesaziyê yên pêşeng, di nav de pêşkêşiyên girtî yên ji dêwên teknolojiyê yên mezin, derdixin.

[Wêneyê têxe ku encamên pîvana wergirtina MTEB ji bo modelên Arctic Embed nîşan dide]

Van modelên vegirtinê Arctic LLM temam dikin û pargîdaniyan dihêlin ku ji stûnek çavkaniyek vekirî ya yekbûyî çareseriyên nifşa zêdekirî yên pirs-bersiv û vegerandinê ava bikin.

Lê nexşeya rê ya Snowflake tenê ji Arctic û vegirtinê wêdetir dirêj dibe. Lêkolînerên AI-ê yên pargîdanî li ser berfirehkirina malbata Arktîkê bi modelên nû yên ku ji bo peywirên pir-modal, axaftin, vîdyoyê û bêtir kapasîteyên sînor hatine veqetandin dijwar dixebitin - hemî bi karanîna heman prensîbên pisporî, karîgerî û vekirî têne çêkirin.

Hevkariya ji bo ekosîstemek AI-ya vekirî Snowflake fêm dike ku têgihîştina tevahî potansiyela AI-ya vekirî, pola pargîdanî hewce dike ku ekosîstemek dewlemend a hevkariyê li seranserê civata AI-ê were çandin. Serbestberdana Arktîk jixwe bi platform û pêşkêşkerên mezin re hevkarî kiriye:

NVIDIA ji nêz ve bi Snowflake re hevkarî kiriye da ku Arktîkê ji bo bicîhkirina bikêrhatî bi karanîna stûna AI-ê ya pêşkeftî ya NVIDIA-yê tevî TensorRT, Triton û hêj bêtir xweşbîn bike. Ev rê dide pargîdaniyan ku bi qasê bi lêçûn-bandor xizmeta Arktîkê bikin.

Hugging Face, navenda modela çavkaniya vekirî ya pêşeng, Arctic pêşwazî li pirtûkxane û depoyên modela xwe kir. Ev rê dide yekbûna bêkêmasî ya Arktîkê di nav kar û sepanên AI-yê yên heyî yên Hugging Face de.

Platformên mîna Replicate, SageMaker, û hêj bêtir bi lez tevgeriyan da ku demoyên mêvandar, API û rêyên entegrasyonê yên herikbar ji bo Arktîkê pêşkêşî bikin, pejirandina wê bileztir dikin.

Çavkaniya vekirî pêşveçûna Arktîkê rêve kir, û ekosîstemên vekirî di pêşveçûna wê de navendî dimînin. Snowflake pabend e ku hevkariyek dewlemend bi lêkolîner, pêşdebir, hevkar û pargîdaniyên gerdûnî re xurt bike da ku sînorên tiştê ku bi modelên vekirî, pispor ên AI-ê re gengaz e derxîne.

Min pênc salên paşîn derbas kir ku xwe di cîhana balkêş a Fêrbûna Makîne û Fêrbûna Kûr de derbas kir. Hezbûn û pisporiya min hişt ku ez beşdarî zêdetirî 50 projeyên endezyariya nermalava cihêreng, bi taybetî li ser AI / ML-ê bikim. Meraqa min a domdar di heman demê de ez ber bi Pêvajoya Zimanê Xwezayî ve jî kişandim, qadek ku ez dixwazim bêtir lê vekolim.