škrbina Snowflake Arctic: Vrhunski LLM za Enterprise AI - Unite.AI
Povežite se s nama

Umjetna inteligencija

Snowflake Arctic: Vrhunski LLM za Enterprise AI

mm

Objavljeno

 on

Snowflake Arctic: Vrhunski LLM za Enterprise AI

Poduzeća danas sve više istražuju načine kako iskoristiti velike jezične modele (LLM) za povećanje produktivnosti i stvaranje inteligentnih aplikacija. Međutim, mnoge od dostupnih LLM opcija su generički modeli koji nisu prilagođeni potrebama specijaliziranih poduzeća kao što su analiza podataka, kodiranje i automatizacija zadataka. Unesi Snježna pahulja Arktik – najsuvremeniji LLM svrsishodno dizajniran i optimiziran za ključne slučajeve korištenja poduzeća.

Razvijen od strane istraživačkog tima AI u Snowflakeu, Arctic pomiče granice onoga što je moguće uz učinkovitu obuku, isplativost i neusporedivu razinu otvorenosti. Ovaj revolucionarni model ističe se u ključnim poslovnim mjerilima dok zahtijeva daleko manje računalne snage u usporedbi s postojećim LLM-ovima. Zaronimo u ono što Arctic čini preokretom za AI za poduzeća.

Redefinirana poslovna inteligencija U svojoj srži, Arctic je laserski usmjeren na pružanje iznimnih performansi na metrikama koje su uistinu važne za poduzeća – kodiranje, SQL upit, praćenje složenih uputa i stvaranje utemeljenih rezultata temeljenih na činjenicama. Snowflake je spojio ove kritičke sposobnosti u roman "poslovna inteligencija” metrika.

Rezultati govore sami za sebe. Arctic ispunjava ili nadmašuje modele kao što su LLAMA 7B i LLAMA 70B na referentnim vrijednostima poslovne inteligencije dok koristi manje od polovice proračuna za računalstvo za obuku. Izvanredno, unatoč korištenju 17 puta manje računalnih resursa od LLAMA 70B, Arctic postiže paritet na specijaliziranim testovima kao što su kodiranje (HumanEval+, MBPP+), generiranje SQL-a (Spider) i praćenje uputa (IFEval).

Ali Arcticova moć nadilazi samo uspostavu mjerila za poduzeća. Održava snažnu izvedbu u pogledu općeg razumijevanja jezika, zaključivanja i matematičkih sposobnosti u usporedbi s modelima obučenim s eksponencijalno višim računalnim proračunima kao što je DBRX. Ova holistička sposobnost čini Arctic nenadmašnim izborom za rješavanje različitih potreba AI poduzeća.

Inovacija

Dense-MoE hibridni transformator Pa kako je tim Snowflakea izgradio tako nevjerojatno sposoban, ali učinkovit LLM? Odgovor leži u Arctic-ovoj vrhunskoj arhitekturi hibridnog transformatora Dense Mixture-of-Experts (MoE).

Tradicionalni gusti transformatorski modeli postaju sve skuplji za treniranje kako njihova veličina raste, s linearnim povećanjem računalnih zahtjeva. MoE dizajn pomaže da se to zaobiđe korištenjem višestrukih paralelnih mreža za prosljeđivanje (stručnjaka) i aktiviranjem samo podskupa za svaki ulazni token.

Međutim, jednostavno korištenje MoE arhitekture nije dovoljno – Arctic genijalno kombinira prednosti dense i MoE komponenti. Uparuje transformatorski koder s 10 milijardi parametara sa višeslojnim perceptronskim (MLP) slojem od 128 stručnih ostataka MoE. Ovaj hibridni model gustog MoE-a ima ukupno 480 milijardi parametara, ali samo 17 milijardi je aktivno u bilo kojem trenutku korištenjem top-2 usmjeravanja.

Implikacije su duboke – Arctic postiže neviđenu kvalitetu modela i kapacitet dok ostaje izuzetno računalno učinkovit tijekom obuke i zaključivanja. Na primjer, Arctic ima 50% manje aktivnih parametara od modela kao što je DBRX tijekom zaključivanja.

Ali arhitektura modela samo je jedan dio priče. Arcticova izvrsnost vrhunac je nekoliko pionirskih tehnika i uvida koje je razvio istraživački tim Snowflakea:

  1. Kurikulum podataka o obuci usmjerenoj na poduzeće. Kroz opsežno eksperimentiranje, tim je otkrio da generičke vještine poput zdravorazumskog zaključivanja treba naučiti rano, dok je složenije specijalizacije poput kodiranja i SQL-a najbolje steći kasnije u procesu obuke. Arcticov podatkovni kurikulum slijedi pristup u tri faze koji oponaša napredovanje ljudskog učenja.

Prvi teratokeni usmjereni su na izgradnju široke opće baze. Sljedećih 1.5 teratokena koncentriraju se na razvoj poslovnih vještina putem podataka prilagođenih za SQL, zadatke kodiranja i još mnogo toga. Konačni teratokeni dodatno usavršavaju Arktičke specijalizacije koristeći rafinirane skupove podataka.

  1. Optimalni arhitektonski izbori Dok MoEs obećavaju bolju kvalitetu po računanju, odabir pravih konfiguracija ključan je, ali slabo shvaćen. Detaljnim istraživanjem Snowflake je došao do arhitekture koja zapošljava 128 stručnjaka s dva najbolja koja su provjeravala svaki sloj nakon procjene kompromisa između kvalitete i učinkovitosti.

Povećanje broja stručnjaka daje više kombinacija, povećavajući kapacitet modela. Međutim, to također podiže troškove komunikacije, pa je Snowflake sletio na 128 pažljivo dizajniranih "zgusnutih" stručnjaka aktiviranih putem top-2 gatinga kao optimalne ravnoteže.

  1. Ko-dizajn sustava Ali čak i optimalnu arhitekturu modela mogu potkopati uska grla sustava. Stoga je tim Snowflakea i ovdje uveo inovacije – zajednički dizajnirajući arhitekturu modela ruku pod ruku s temeljnim sustavima za obuku i zaključivanje.

Za učinkovitu obuku, komponente Dense i MoE strukturirane su tako da omoguće komunikaciju i računanje koje se preklapaju, skrivajući značajne troškove komunikacije. Što se tiče zaključaka, tim je iskoristio NVIDIA-ine inovacije kako bi omogućio vrlo učinkovitu implementaciju unatoč veličini Arktika.

Tehnike kao što je FP8 kvantizacija omogućuju postavljanje cijelog modela na jedan GPU čvor za interaktivno zaključivanje. Veće serije uključuju Arcticove sposobnosti paralelizma na više čvorova, a istovremeno ostaju impresivno računalno učinkovite zahvaljujući kompaktnim 17B aktivnim parametrima.

Uz licencu za Apache 2.0, Arcticove težine i kod dostupni su bez ograničenja za bilo kakvu osobnu, istraživačku ili komercijalnu upotrebu. Ali Snowflake je otišao mnogo dalje, otvorivši svoje kompletne recepte podataka, implementacije modela, savjete i duboke istraživačke uvide koji pokreću Arktik.

"Arktička kuharica” je sveobuhvatna baza znanja koja pokriva svaki aspekt izgradnje i optimizacije velikog modela MoE kao što je Arctic. Destilira ključna učenja kroz izvore podataka, dizajn arhitekture modela, ko-dizajn sustava, optimizirane sheme obuke/zaključivanja i više.

Od identificiranja optimalnih nastavnih planova i programa za podatke do projektiranja MoE-a uz istovremeno optimiziranje kompilatora, planera i hardvera – ovo opsežno tijelo znanja demokratizira vještine koje su prije bile ograničene na elitne laboratorije umjetne inteligencije. Arctic Cookbook ubrzava krivulje učenja i omogućuje tvrtkama, istraživačima i razvojnim programerima na globalnoj razini da kreiraju vlastite isplative, prilagođene LLM-ove za gotovo svaki slučaj upotrebe.

Početak rada s Arktikom

Za tvrtke koje žele iskoristiti Arktik, Snowflake nudi više putova za brzi početak:

Zaključak bez poslužitelja: korisnici Snowflakea mogu besplatno pristupiti modelu Arctic na Snowflake Cortexu, potpuno upravljanoj AI platformi tvrtke. Osim toga, Arctic je dostupan u svim glavnim katalozima modela kao što su AWS, Microsoft Azure, NVIDIA itd.

Počnite od nule: težine i implementacije modela otvorenog koda omogućuju programerima da izravno integriraju Arctic u svoje aplikacije i usluge. Arctic repo nudi uzorke koda, vodiče za implementaciju, recepte za fino podešavanje i još mnogo toga.

Izradite prilagođene modele: zahvaljujući iscrpnim vodičima Arctic Cookbooka, programeri mogu ispočetka izgraditi vlastite prilagođene MoE modele optimizirane za bilo koji specijalizirani slučaj upotrebe koristeći znanja iz razvoja Arctica.

Nova era otvorenog poduzeća AI Arctic je više od samo još jednog moćnog jezičnog modela – on najavljuje novu eru otvorenih, isplativih i specijaliziranih AI mogućnosti namjenski izgrađenih za poduzeća.

Od revolucioniranja analitike podataka i produktivnosti kodiranja do osnaživanja automatizacije zadataka i pametnijih aplikacija, Arctic DNK za poduzeća na prvom mjestu čini ga nenadmašnim izborom u odnosu na generičke LLM-ove. A otvorenim izvorom ne samo modela već i cijelog procesa istraživanja i razvoja koji stoji iza njega, Snowflake potiče kulturu suradnje koja će unaprijediti cijeli ekosustav umjetne inteligencije.

Kako poduzeća sve više prihvaćaju generativnu umjetnu inteligenciju, Arctic nudi hrabar nacrt za razvoj modela objektivno superiornih za radna opterećenja proizvodnje i poslovna okruženja. Njegov spoj vrhunskog istraživanja, neusporedive učinkovitosti i nepokolebljivog otvorenog etosa postavlja novo mjerilo u demokratizaciji transformativnog potencijala umjetne inteligencije.

Evo odjeljka s primjerima koda o tome kako koristiti model Snowflake Arctic:

Praktični rad s Arktikom

Sada kada smo pokrili što Arctic čini istinski revolucionarnim, zaronimo u to kako programeri i znanstvenici koji se bave podacima mogu početi koristiti ovaj moćni model.
Izvan kutije, Arctic je dostupan unaprijed obučen i spreman za implementaciju kroz glavna središta modela kao što je Hugging Face i partnerske AI platforme. Ali njegova stvarna snaga dolazi do izražaja kada ga prilagodite i fino prilagodite za vaše specifične slučajeve upotrebe.

Arcticova licenca za Apache 2.0 pruža punu slobodu da ga integrirate u svoje aplikacije, usluge ili prilagođene AI tijekove rada. Prođimo kroz neke primjere koda pomoću biblioteke transformatora da bismo započeli:
Osnovno zaključivanje s Arktikom

Za slučajeve upotrebe brzog generiranja teksta možemo vrlo jednostavno učitati Arctic i pokrenuti osnovni zaključak:

from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")
# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Ovo bi trebalo ispisati nešto poput:

“Glavni grad Francuske je Pariz. Pariz je najveći grad Francuske i gospodarsko, političko i kulturno središte zemlje. U njemu se nalaze poznate znamenitosti poput Eiffelovog tornja, muzeja Louvre i katedrale Notre-Dame.”

Kao što možete vidjeti, Arctic besprijekorno razumije upit i pruža detaljan, utemeljen odgovor koristeći svoje robusne mogućnosti razumijevanja jezika.

Fino podešavanje za specijalizirane zadatke

Iako je impresivan izvan okvira, Arctic uistinu blista kada se prilagodi i fino ugodi na vašim vlasničkim podacima za specijalizirane zadatke. Snowflake je ponudio opsežne recepte koji pokrivaju:

  • Određivanje visokokvalitetnih podataka o obuci prilagođenih vašem slučaju korištenja
  • Provedba prilagođenih višefaznih nastavnih planova i programa obuke
  • Iskorištavanje učinkovitih LoRA, P-Tuning ili FactorizedFusion pristupa finom podešavanju
  • Optimizacije za pronicljiv SQL, kodiranje ili druge ključne poslovne vještine

Evo primjera kako fino podesiti Arctic na vlastitim skupovima podataka za kodiranje pomoću recepata LoRA i Snowflake:

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)
# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)
# Your coding datasets
data = load_coding_datasets()
# Fine-tune with Snowflake's recipes
train(model, data, ...)

Ovaj kod ilustrira kako možete bez napora učitati Arctic, inicijalizirati LoRA konfiguraciju prilagođenu za generiranje koda, a zatim fino podesiti model na svojim vlasničkim skupovima podataka za kodiranje koristeći smjernice Snowflakea.

Prilagođen i fino podešen, Arctic postaje privatna elektrana prilagođena da pruži neusporedivu izvedbu u vašim osnovnim poslovnim tokovima i potrebama dionika.

Arktički brzi ciklus inovacija

Jedan od najdojmljivijih aspekata Arktika je munjevit tempo kojim je Snowflakeov AI istraživački tim osmislio, razvio i pustio u svijet ovaj vrhunski model. Od početka do objave otvorenog izvornog koda, cijeli projekt Arctic trajao je manje od tri mjeseca i iskoristio je samo oko jednu osminu računalnog proračuna tipičnog za obuku sličnih velikih jezičnih modela.

Ova sposobnost brzog ponavljanja, inovacija i produkcije najsuvremenijeg istraživanja umjetne inteligencije doista je izvanredna. Demonstrira duboke tehničke sposobnosti Snowflakea i pozicionira tvrtku da kontinuirano pomiče granice u razvoju novih, poduzeća optimiziranih AI mogućnosti.

Arktička obitelj i ugradnje

Arctic je samo početak Snowflakeovih ambicija u poslovnom LLM prostoru. Tvrtka je već otvorila Snowflake Arctic Embed obitelj modela za ugrađivanje teksta koji su vodeći u industriji optimizirani za izvedbu dohvaćanja u više profila veličine.

Kao što je ilustrirano u nastavku, modeli Arctic Embed postižu najsuvremeniju točnost dohvaćanja na poštovanoj referentnoj točki MTEB (dohvaćanje teksta), nadmašujući druge vodeće modele ugrađivanja, uključujući zatvorene ponude velikih tehnoloških divova.

[Umetnite sliku koja prikazuje referentne rezultate MTEB dohvaćanja za modele Arctic Embed]

Ovi modeli ugradnje nadopunjuju Arctic LLM i omogućuju poduzećima da izgrade snažna rješenja za generiranje odgovora na pitanja i dohvaćanja iz integriranog skupa otvorenog koda.

Ali Snowflakeov putokaz proteže se daleko dalje od Arktika i ugrađivanja. Istraživači AI tvrtke vrijedno rade na proširenju Arctic obitelji s novim modelima skrojenim za multimodalne zadatke, govor, video i više graničnih mogućnosti – a sve je izgrađeno korištenjem istih načela specijalizacije, učinkovitosti i otvorenosti.

Partnerstvo za otvoreni ekosustav umjetne inteligencije Snowflake razumije da ostvarenje punog potencijala otvorene umjetne inteligencije na razini poduzeća zahtijeva njegovanje bogatog ekosustava partnerstava u zajednici umjetne inteligencije. Izdanje Arctic već je potaknulo suradnju s glavnim platformama i pružateljima usluga:

NVIDIA je blisko surađivala sa Snowflakeom kako bi optimizirala Arctic za učinkovitu implementaciju koristeći NVIDIA-in vrhunski AI inference stack uključujući TensorRT, Triton i više. To omogućuje poduzećima da opslužuju Arktik u velikom opsegu i isplativo.

Hugging Face, vodeće središte modela otvorenog koda, primilo je Arctic u svoje biblioteke i repozitorije modela. To omogućuje besprijekornu integraciju Arctic-a u postojeće tijekove rada i aplikacije AI-a temeljene na Hugging Face-u.

Platforme kao što su Replicate, SageMaker i druge brzo su se pokrenule kako bi ponudile hostirane demonstracije, API-je i tečne integracijske putove za Arctic, ubrzavajući njegovo usvajanje.

Otvoreni izvor usmjerio je razvoj Arktika, a otvoreni ekosustavi i dalje su središnji za njegovu evoluciju. Snowflake je predan poticanju bogate suradnje s istraživačima, programerima, partnerima i poduzećima na globalnoj razini kako bi pomaknuo granice onoga što je moguće s otvorenim, specijaliziranim AI modelima.

Proteklih pet godina proveo sam uranjajući u fascinantan svijet strojnog i dubokog učenja. Moja strast i stručnost naveli su me da pridonesem više od 50 različitih projekata softverskog inženjeringa, s posebnim fokusom na AI/ML. Moja stalna znatiželja također me povukla prema obradi prirodnog jezika, polju koje jedva čekam dalje istraživati.