Spojte se s námi

Umělá inteligence

Snowflake Arctic: Nejmodernější LLM pro podnikovou umělou inteligenci

mm
Snowflake Arctic: Nejmodernější LLM pro podnikovou umělou inteligenci

Podniky dnes stále více hledají způsoby, jak využít velké jazykové modely (LLM) ke zvýšení produktivity a vytváření inteligentních aplikací. Mnoho dostupných možností LLM jsou však obecné modely, které nejsou přizpůsobeny specializovaným potřebám podniku, jako je analýza dat, kódování a automatizace úloh. Vstupte Sněhová vločka Arktida – nejmodernější LLM cíleně navržené a optimalizované pro hlavní podnikové případy použití.

Arctic, vyvinutý výzkumným týmem umělé inteligence ve společnosti Snowflake, posouvá hranice možného díky efektivnímu školení, nákladové efektivitě a bezkonkurenční úrovni otevřenosti. Tento revoluční model vyniká v klíčových podnikových benchmarkech a zároveň vyžaduje mnohem menší výpočetní výkon ve srovnání se stávajícími LLM. Pojďme se ponořit do toho, co dělá z Arctic průlom v podnikové umělé inteligenci.

Redefined Enterprise Intelligence Ve svém jádru je Arctic laserově zaměřeno na poskytování výjimečného výkonu v metrikách, které jsou pro podniky skutečně důležité – kódování, SQL dotazování, následování komplexních instrukcí a vytváření uzemněných výstupů založených na faktech. Snowflake spojila tyto kritické schopnosti do nového „podniková inteligence”metrika.

Výsledky hovoří samy za sebe. Arctic splňuje nebo překonává modely jako LLAMA 7B a LLAMA 70B ve srovnávacích testech podnikové inteligence a využívá méně než polovinu výpočetního rozpočtu na školení. Pozoruhodné, i přes využití 17krát méně výpočetních zdrojů než LLAMA 70B, Arctic dosahuje parity ve specializovaných testech, jako je kódování (HumanEval+, MBPP+), generování SQL (Spider) a následování instrukcí (IFEval).

Schopnosti Arctic však jdou nad rámec pouhého splňování podnikových benchmarků. Udržuje si silný výkon v oblasti obecného porozumění jazyku, uvažování a matematických schopností ve srovnání s modely trénovanými s exponenciálně vyššími výpočetními rozpočty, jako je DBRX. Tato holistická schopnost dělá z Arctic nepřekonatelnou volbu pro řešení rozmanitých potřeb podniku v oblasti umělé inteligence.

Inovace

Hybridní transformátor Dense-MoE Jak tedy tým Snowflake postavil tak neuvěřitelně schopný a zároveň efektivní LLM? Odpověď spočívá v nejmodernější architektuře hybridního transformátoru Dense Mixture-of-Experts (MoE) od společnosti Arctic.

Tradiční husté modely transformátorů se stávají stále nákladnějšími na trénování, protože jejich velikost roste, přičemž výpočetní požadavky lineárně rostou. Návrh MŽP to pomáhá obejít tím, že využívá více paralelních dopředných sítí (odborníků) a pro každý vstupní token aktivuje pouze podmnožinu.

Pouhé použití architektury MoE však nestačí – Arctic důmyslně kombinuje silné stránky jak hustých, tak i MoE komponent. Spojuje transformátorový kodér s hustou strukturou s 10 miliardami parametrů se 128 expertní reziduální vícevrstvou perceptronovou (MLP) vrstvou MoE. Tento hybridní model s hustou strukturou MoE má celkem 480 miliard parametrů, ale pouze 17 miliard je aktivních v daném okamžiku s využitím top-2 gatingu.

Důsledky jsou hluboké – Arctic dosahuje nebývalé kvality a kapacity modelu, přičemž zůstává pozoruhodně výpočetně efektivní během školení a vyvozování. Například Arctic má během inference o 50 % méně aktivních parametrů než modely jako DBRX.

Architektura modelu je však jen jednou částí příběhu. Dokonalost Arctic je vyvrcholením několika průkopnických technik a poznatků vyvinutých výzkumným týmem Snowflake:

  1. Datové kurikulum zaměřené na podniky Prostřednictvím rozsáhlého experimentování tým zjistil, že obecné dovednosti, jako je zdravý rozum, by se měly učit brzy, zatímco složitější specializace, jako je kódování a SQL, se nejlépe získají později v procesu školení. Datové kurikulum společnosti Arctic se řídí třístupňovým přístupem napodobujícím postup lidského učení.

První teratokeny se zaměřují na budování široké obecné základny. Dalších 1.5 teratokenu se soustředí na rozvoj podnikových dovedností prostřednictvím dat přizpůsobených pro SQL, kódovací úlohy a další. Poslední teratokeny dále zdokonalují specializaci Arctic pomocí zpřesněných datových sad.

  1. Optimální architektonické volby Zatímco MoE slibují lepší kvalitu na výpočet, výběr správných konfigurací je zásadní, ale špatně pochopený. Prostřednictvím podrobného výzkumu Snowflake přistál na architektuře zaměstnávající 128 odborníků s top-2 hradlováním každé vrstvy po vyhodnocení kompromisů mezi kvalitou a efektivitou.

Zvýšení počtu odborníků poskytuje více kombinací a zvyšuje kapacitu modelu. To však také zvyšuje náklady na komunikaci, takže Snowflake přistál na 128 pečlivě navržených „kondenzovaných“ expertech aktivovaných přes top-2 hradlování jako optimální rovnováhu.

  1. Spoludesign systému Ale i optimální architektura modelu může být narušena úzkými hrdly systému. Tým Snowflake tedy inovoval i zde – spolunavrhoval architekturu modelu ruku v ruce se základními školicími a inferenčními systémy.

Pro efektivní školení byly komponenty Dense a MoE strukturovány tak, aby umožňovaly překrývající se komunikaci a výpočty, čímž se skrývaly značné komunikační režijní náklady. Na straně inference tým využil inovace společnosti NVIDIA k zajištění vysoce efektivního nasazení navzdory rozsahu Arctic.

Techniky jako kvantizace FP8 umožňují interaktivní inferenci pro umístění celého modelu na jeden uzel GPU. Větší dávky využívají paralelistické schopnosti Arctic napříč více uzly a zároveň zachovávají působivou výpočetní efektivitu díky kompaktním 17B aktivním parametrům.

S licencí Apache 2.0 jsou váhy a kód Arctic k dispozici bez omezení pro jakékoli osobní, výzkumné nebo komerční použití. Snowflake však zašla mnohem dál a zpřístupnila kompletní datové recepty, implementace modelů, tipy a hluboké výzkumné poznatky, které Arctic pohánějí.

"Arktická kuchařka“ je komplexní znalostní báze pokrývající každý aspekt budování a optimalizace rozsáhlého modelu MŽP, jako je Arktida. Destiluje klíčové poznatky z oblasti zdrojů dat, návrhu architektury modelu, společného návrhu systému, optimalizovaných školicích/inferenčních schémat a dalších.

Od identifikace optimálních datových osnov po architekturu MoE při současné optimalizaci kompilátorů, plánovačů a hardwaru – tento rozsáhlý soubor znalostí demokratizuje dovednosti, které byly dříve omezeny na elitní laboratoře AI. Arctic Cookbook urychluje křivky učení a umožňuje podnikům, výzkumníkům a vývojářům po celém světě vytvářet své vlastní nákladově efektivní, přizpůsobené LLM prakticky pro jakýkoli případ použití.

Začínáme s Arktidou

Pro společnosti, které chtějí využít Arktidu, nabízí Snowflake několik cest, jak rychle začít:

Bezserverová inference: Zákazníci Snowflake mají k modelu Arctic přístup zdarma na Snowflake Cortex, plně spravované platformě umělé inteligence společnosti. Kromě toho je Arctic k dispozici ve všech hlavních katalozích modelů, jako jsou AWS, Microsoft Azure, NVIDIA a další.

Začněte od začátku: Váhy a implementace modelu s otevřeným zdrojovým kódem umožňují vývojářům přímo integrovat Arctic do svých aplikací a služeb. Arctic repo poskytuje ukázky kódu, návody k nasazení, dolaďovací recepty a další.

Vytvářejte vlastní modely: Díky vyčerpávajícím průvodcům v Arctic Cookbook si vývojáři mohou vytvářet vlastní modely MoE od nuly, optimalizované pro jakýkoli specializovaný případ použití, s využitím poznatků z vývoje společnosti Arctic.

Nová éra Open Enterprise AI Arctic je více než jen další výkonný jazykový model – ohlašuje novou éru otevřených, nákladově efektivních a specializovaných schopností umělé inteligence vytvořených účelově pro podniky.

Od revoluce v analýze dat a produktivitě kódování až po automatizaci úkolů a chytřejší aplikace – podniková DNA Arctic z něj dělá nepřekonatelnou volbu oproti generickým LLM. A díky open-source nejen modelu, ale i celému procesu výzkumu a vývoje, který za ním stojí, Snowflake podporuje kulturu spolupráce, která pozvedne celý ekosystém umělé inteligence na vyšší úroveň.

Vzhledem k tomu, že podniky stále více využívají generativní umělou inteligenci, nabízí Arctic odvážný plán pro vývoj modelů, které jsou objektivně lepší pro produkční úlohy a podniková prostředí. Jeho spojení špičkového výzkumu, bezkonkurenční efektivity a neochvějného otevřeného étosu nastavuje nový standard v demokratizaci transformačního potenciálu umělé inteligence.

Zde je sekce s příklady kódu, jak používat model Snowflake Arctic:

Praktické zkušenosti s Arktidou

Nyní, když jsme si probrali, co dělá Arctic skutečně průlomovým, pojďme se ponořit do toho, jak mohou vývojáři a datoví vědci začít tento výkonný model uvádět do praxe.
Po vybalení je Arctic k dispozici předem vycvičený a připravený k nasazení prostřednictvím hlavních modelových center, jako je Hugging Face a partnerské platformy umělé inteligence. Jeho skutečná síla se však ukáže, když jej přizpůsobíte a vyladíte pro vaše konkrétní případy použití.

Licence Apache 2.0 od Arctic poskytuje plnou svobodu integrace do vašich aplikací, služeb nebo vlastních pracovních postupů umělé inteligence. Pro začátek si projdeme několik příkladů kódu s využitím knihovny transformers:
Základní závěr s Arktidou

Pro případy použití rychlého generování textu můžeme velmi snadno načíst Arctic a spustit základní odvození:

from transformers import AutoTokenizer, AutoModelForCausalLM

# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")

# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)

print(generated_text)

To by mělo vypsat něco jako:

„Hlavním městem Francie je Paříž. Paříž je největší město Francie a ekonomické, politické a kulturní centrum země. Nacházejí se zde slavné památky, jako je Eiffelova věž, muzeum Louvre a katedrála Notre-Dame.“

Jak můžete vidět, Arctic bezproblémově rozumí dotazu a poskytuje podrobnou a uzemněnou odpověď s využitím svých robustních schopností porozumění jazyku.

Jemné ladění pro specializované úkoly

I když je Arctic působivý hned po vybalení, skutečně září, když je přizpůsoben a doladěn na vašich proprietárních datech pro specializované úkoly. Snowflake poskytla rozsáhlé recepty zahrnující:

  • Spravování vysoce kvalitních školicích dat přizpůsobených pro váš případ použití
  • Implementace přizpůsobených vícestupňových vzdělávacích osnov
  • Využití efektivních přístupů k jemnému ladění LoRA, P-Tuning nebo FactorizedFusion
  • Optimalizace pro náročné SQL, kódování nebo jiné klíčové podnikové dovednosti

Zde je příklad, jak doladit Arctic na vlastních kódovacích datových sadách pomocí receptů LoRA a Snowflake:

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training

# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)

# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)

# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)

# Your coding datasets
data = load_coding_datasets()

# Fine-tune with Snowflake's recipes
train(model, data, ...)

Tento kód ilustruje, jak můžete bez námahy načíst Arctic, inicializovat konfiguraci LoRA přizpůsobenou pro generování kódu a poté doladit model na vašich proprietárních datových sadách kódu s využitím pokynů Snowflake.

Přizpůsobený a vyladěný Arctic se stává soukromou velmocí vyladěnou tak, aby poskytovala bezkonkurenční výkon pro vaše hlavní podnikové pracovní postupy a potřeby zainteresovaných stran.

Rychlý inovační cyklus Arktidy

Jedním z nejpůsobivějších aspektů projektu Arctic je bleskové tempo, s jakým výzkumný tým umělé inteligence společnosti Snowflake tento špičkový model navrhl, vyvinul a zveřejnil pro svět. Od vzniku až po vydání s otevřeným zdrojovým kódem trval celý projekt Arctic méně než tři měsíce a využil pouze zhruba osminu výpočetního rozpočtu typického pro trénování podobných rozsáhlých jazykových modelů.

Tato schopnost rychle iterovat, inovovat a produkovat nejmodernější výzkum v oblasti umělé inteligence je skutečně pozoruhodná. Demonstruje hluboké technické schopnosti společnosti Snowflake a umožňuje společnosti neustále posouvat hranice vývoje nových, podnikově optimalizovaných funkcí umělé inteligence.

Arktická rodina a zabudování

Arctic je pouze začátkem ambicí společnosti Snowflake v oblasti podnikového LLM. Společnost již zpřístupnila rodinu modelů Snowflake Arctic Embed, které jsou špičkovými modely pro vkládání textu, optimalizovanými pro výkon vyhledávání napříč profily různých velikostí.

Jak je znázorněno níže, modely Arctic Embed dosahují nejmodernější přesnosti vyhledávání v respektovaném benchmarku MTEB (text retrieval), čímž překonávají ostatní přední modely vkládání, včetně uzavřených nabídek od velkých technologických gigantů.

[Vložte obrázek zobrazující výsledky srovnávacího vyhledávání MTEB pro modely Arctic Embed]

Tyto modely vestavění doplňují Arctic LLM a umožňují podnikům budovat výkonná řešení pro generování s rozšířenou generací a hledáním odpovědí z integrovaného balíčku s otevřeným zdrojovým kódem.

Plán společnosti Snowflake však sahá daleko za hranice pouhé Arctic a jejích embeddingů. Výzkumníci v oblasti umělé inteligence usilovně pracují na rozšíření rodiny produktů Arctic o nové modely přizpůsobené pro multimodální úkoly, řeč, video a další hraniční funkce – to vše je postaveno na stejných principech specializace, efektivity a otevřenosti.

Partnerství pro otevřený ekosystém umělé inteligence Snowflake chápe, že využití plného potenciálu otevřené umělé inteligence na podnikové úrovni vyžaduje kultivaci bohatého ekosystému partnerství napříč komunitou umělé inteligence. Vydání Arctic již podnítilo spolupráci s hlavními platformami a poskytovateli:

NVIDIA úzce spolupracuje se společností Snowflake na optimalizaci Arctic pro efektivní nasazení s využitím špičkového inferenčního stacku pro umělou inteligenci od NVIDIA, včetně TensorRT, Triton a dalších. To umožňuje podnikům obsluhovat Arctic ve velkém měřítku a s nízkými náklady.

Hugging Face, přední modelové centrum s otevřeným zdrojovým kódem, přivítalo Arctic do svých knihoven a úložišť modelů. To umožňuje bezproblémovou integraci Arctic do stávajících pracovních postupů a aplikací AI založených na Hugging Face.

Platformy jako Replicate, SageMaker a další se rychle přesunuly do nabídky hostovaných ukázek, rozhraní API a plynulých integračních cest pro Arktidu, což urychlilo její přijetí.

Open source řídil rozvoj Arktidy a otevřené ekosystémy zůstávají ústředním bodem její evoluce. Snowflake se zavázala podporovat bohatou spolupráci s výzkumníky, vývojáři, partnery a podniky po celém světě s cílem posunout hranice možností otevřených, specializovaných modelů umělé inteligence.

Posledních pět let jsem strávil ponořením se do fascinujícího světa strojového učení a hlubokého učení. Moje vášeň a odborné znalosti mě vedly k tomu, abych se podílel na více než 50 různých projektech softwarového inženýrství se zvláštním zaměřením na AI/ML. Moje neustálá zvědavost mě také přivedla ke zpracování přirozeného jazyka, což je obor, který bych rád dále prozkoumal.