peň Snowflake Arctic: Špičková LLM pre podnikovú AI - Unite.AI
Spojte sa s nami

Umelá inteligencia

Snowflake Arctic: Špičková LLM pre podnikovú AI

mm

uverejnené

 on

Snowflake Arctic: Špičková LLM pre podnikovú AI

Spoločnosti dnes čoraz viac hľadajú spôsoby, ako využiť veľké jazykové modely (LLM) na zvýšenie produktivity a vytváranie inteligentných aplikácií. Mnohé z dostupných možností LLM sú však generické modely, ktoré nie sú prispôsobené špecializovaným podnikovým potrebám, ako je analýza údajov, kódovanie a automatizácia úloh. Zadajte Arktická snehová vločka – najmodernejšie LLM cielene navrhnuté a optimalizované pre prípady použitia v kľúčových podnikoch.

Arctic, vyvinutý výskumným tímom AI v Snowflake, posúva hranice možného pomocou efektívneho školenia, nákladovej efektívnosti a bezkonkurenčnej úrovne otvorenosti. Tento revolučný model vyniká v kľúčových podnikových benchmarkoch a zároveň vyžaduje oveľa menší výpočtový výkon v porovnaní s existujúcimi LLM. Poďme sa ponoriť do toho, čo robí z Arctic zmenu hry pre podnikovú AI.

Redefined Enterprise Intelligence Vo svojom jadre je Arctic laserovo zameraný na poskytovanie výnimočného výkonu v metrikách, ktoré sú pre podniky skutočne dôležité – kódovanie, SQL dotazovanie, nasledovanie komplexných inštrukcií a vytváranie uzemnených výstupov založených na faktoch. Snowflake spojila tieto kritické schopnosti do románu „podniková inteligencia“metrika.

Výsledky hovoria samé za seba. Arctic spĺňa alebo prekonáva modely ako LLAMA 7B a LLAMA 70B v benchmarkoch podnikovej inteligencie, pričom na školenie využíva menej ako polovicu výpočtového rozpočtu. Je pozoruhodné, že napriek využitiu 17-krát menej výpočtových zdrojov ako LLAMA 70B, Arctic dosahuje paritu v špecializovaných testoch, ako je kódovanie (HumanEval+, MBPP+), generovanie SQL (Spider) a sledovanie inštrukcií (IFEval).

Schopnosť Arktídy však presahuje len referenčné hodnoty vyspelých podnikov. V porovnaní s modelmi trénovanými s exponenciálne vyššími výpočtovými rozpočtami, ako je DBRX, si zachováva vysoký výkon v rámci všeobecného jazykového porozumenia, uvažovania a matematických schopností. Táto holistická schopnosť robí z Arctic neprekonateľnú voľbu na riešenie rôznorodých potrieb AI v podniku.

Inovácia

Hybridný transformátor Dense-MoE Ako teda tím Snowflake vybudoval taký neuveriteľne schopný a zároveň efektívny LLM? Odpoveď spočíva v špičkovej architektúre hybridného transformátora Dense Mixture-of-Experts (MoE) spoločnosti Arctic.

Tradičné modely hustých transformátorov sú čoraz nákladnejšie na trénovanie, pretože ich veľkosť rastie, pričom výpočtové požiadavky sa lineárne zvyšujú. Návrh MŽP to pomáha obísť využívaním viacerých paralelných dopredných sietí (odborníkov) a aktiváciou len podmnožiny pre každý vstupný token.

Jednoduché použitie architektúry MŽP však nestačí – Arktída dômyselne kombinuje silné stránky hustých a MŽP. Spáruje transformátorový kodér s hustotou 10 miliárd parametrov so 128 expertnou vrstvou viacvrstvového perceptrónu MoE (MLP). Tento hybridný model s hustotou MoE má celkovo 480 miliárd parametrov, ale iba 17 miliárd je aktívnych v danom čase pomocou top-2 hradlovania.

Dôsledky sú hlboké – Arctic dosahuje bezprecedentnú kvalitu a kapacitu modelu, pričom zostáva pozoruhodne výpočtovo efektívna počas školenia a vyvodzovania. Napríklad Arctic má o 50 % menej aktívnych parametrov ako modely ako DBRX počas inferencie.

Ale modelová architektúra je len jednou časťou príbehu. Excelentnosť Arktídy je vyvrcholením niekoľkých priekopníckych techník a poznatkov vyvinutých výskumným tímom Snowflake:

  1. Učebný plán školiacich údajov zameraných na podnikanie Prostredníctvom rozsiahleho experimentovania tím zistil, že všeobecné zručnosti, ako je logické uvažovanie, by sa mali naučiť skoro, zatiaľ čo zložitejšie špecializácie, ako je kódovanie a SQL, je najlepšie získať neskôr v procese školenia. Učebné osnovy údajov v Arktíde sa riadia trojstupňovým prístupom, ktorý napodobňuje pokroky ľudského učenia.

Prvé teratokeny sa zameriavajú na vybudovanie širokej všeobecnej základne. Ďalších 1.5 teratokenov sa sústreďuje na rozvoj podnikových zručností prostredníctvom údajov prispôsobených pre SQL, úlohy kódovania a ďalšie. Finálne teratokeny ďalej zdokonaľujú špecializácie Arktídy pomocou vylepšených súborov údajov.

  1. Optimálne architektonické voľby Zatiaľ čo MoEs sľubujú lepšiu kvalitu na výpočet, výber správnych konfigurácií je kľúčový, ale zle pochopený. Prostredníctvom podrobného výskumu Snowflake pristál na architektúre, ktorá zamestnáva 128 odborníkov s najlepšími 2 hradlovaním každej vrstvy po vyhodnotení kompromisov medzi kvalitou a efektívnosťou.

Zvýšenie počtu odborníkov poskytuje viac kombinácií, čím sa zvyšuje kapacita modelu. To však tiež zvyšuje náklady na komunikáciu, takže Snowflake pristál na 128 starostlivo navrhnutých „kondenzovaných“ expertoch aktivovaných cez top-2 hradlovanie ako optimálnu rovnováhu.

  1. Spoločný návrh systému Ale aj optimálna architektúra modelu môže byť narušená systémovými prekážkami. Tím Snowflake teda inovoval aj tu – spolunavrhoval modelovú architektúru ruka v ruke so základnými tréningovými a inferenčnými systémami.

Pre efektívne školenie boli husté a MH komponenty štruktúrované tak, aby umožňovali prekrývajúcu sa komunikáciu a výpočty, čím sa skryli značné komunikačné náklady. Na strane záverov tím využil inovácie spoločnosti NVIDIA, aby umožnil vysoko efektívne nasadenie napriek rozsahu Arktídy.

Techniky, ako je kvantizácia FP8, umožňujú umiestniť celý model na jeden uzol GPU pre interaktívne odvodenie. Väčšie šarže využívajú možnosti paralelizmu Arctic naprieč viacerými uzlami, pričom zostávajú pôsobivo výpočtovo efektívne vďaka svojim kompaktným 17B aktívnym parametrom.

S licenciou Apache 2.0 sú závažia a kód spoločnosti Arctic k dispozícii nezmenené pre akékoľvek osobné, výskumné alebo komerčné použitie. Snowflake však zašiel oveľa ďalej a sprístupnil svoje kompletné dátové recepty, implementácie modelov, tipy a hlboké výskumné poznatky, ktoré poháňajú Arktídu.

"Arktická kuchárska kniha“ je komplexná vedomostná báza pokrývajúca každý aspekt budovania a optimalizácie rozsiahleho modelu MŽP, akým je Arktída. Destiluje kľúčové poznatky z oblasti zdrojov údajov, návrhu architektúry modelu, spoločného návrhu systému, optimalizovaných školiacich/inferenčných schém a ďalších.

Od identifikácie optimálnych dátových osnov až po architektúru MoE pri kooptimalizácii kompilátorov, plánovačov a hardvéru – tento rozsiahly súbor vedomostí demokratizuje zručnosti, ktoré boli predtým obmedzené na elitné laboratóriá AI. Arctic Cookbook urýchľuje krivky učenia a umožňuje podnikom, výskumníkom a vývojárom na celom svete vytvárať svoje vlastné nákladovo efektívne, prispôsobené LLM prakticky pre akýkoľvek prípad použitia.

Začíname s Arktídou

Pre spoločnosti, ktoré chcú využiť Arktídu, ponúka Snowflake niekoľko spôsobov, ako rýchlo začať:

Serverless Inference: Zákazníci Snowflake majú bezplatný prístup k modelu Arctic na Snowflake Cortex, plne spravovanej platforme AI spoločnosti. Okrem toho je Arctic k dispozícii vo všetkých hlavných katalógoch modelov, ako sú AWS, Microsoft Azure, NVIDIA a ďalšie.

Začnite od začiatku: Váhy a implementácie modelu s otvoreným zdrojovým kódom umožňujú vývojárom priamo integrovať Arctic do svojich aplikácií a služieb. Arctic repo poskytuje ukážky kódu, návody na nasadenie, dolaďovacie recepty a ďalšie.

Vytvárajte vlastné modely: Vďaka vyčerpávajúcim sprievodcom Arctic Cookbook môžu vývojári zostavovať svoje vlastné modely MoE od začiatku optimalizované pre akýkoľvek špecializovaný prípad použitia pomocou poznatkov z vývoja spoločnosti Arctic.

Nová éra umelej inteligencie s otvoreným podnikom Arctic je viac než len ďalší výkonný jazykový model – ohlasuje novú éru otvorených, nákladovo efektívnych a špecializovaných schopností umelej inteligencie vytvorených účelovo pre podniky.

Od revolúcie v analýze údajov a produktivite kódovania až po napájanie automatizácie úloh a inteligentnejších aplikácií, DNA spoločnosti Arctic v podnikovej sfére z nej robí neprekonateľnú voľbu oproti generickým LLM. A otvoreným získavaním zdrojov nielen pre model, ale aj pre celý proces výskumu a vývoja, ktorý za ním stojí, Snowflake podporuje kultúru spolupráce, ktorá pozdvihne celý ekosystém AI.

Keďže podniky čoraz viac využívajú generatívnu AI, Arctic ponúka odvážny plán na vývoj modelov objektívne lepších pre produkčné pracovné zaťaženie a podnikové prostredia. Jeho spojenie špičkového výskumu, bezkonkurenčnej efektivity a neochvejného otvoreného étosu nastavuje nový štandard v demokratizácii transformačného potenciálu AI.

Tu je časť s príkladmi kódu, ako používať model Snowflake Arctic:

Praktické s Arktídou

Teraz, keď sme popísali, čo robí Arktídu skutočne prelomovou, poďme sa ponoriť do toho, ako môžu vývojári a dátoví vedci začať používať tento výkonný model.
Po vybalení je Arctic k dispozícii vopred vyškolený a pripravený na nasadenie prostredníctvom hlavných modelových centier, ako sú Hugging Face a partnerské platformy AI. Jeho skutočná sila sa však ukáže, keď ho prispôsobíte a doladíte pre vaše konkrétne prípady použitia.

Licencia Apache 2.0 spoločnosti Arctic poskytuje úplnú slobodu pri jej integrácii do vašich aplikácií, služieb alebo vlastných pracovných postupov AI. Poďme si prejsť niekoľko príkladov kódu pomocou knižnice transformátorov, aby ste mohli začať:
Základná inferencia s Arktídou

Pre prípady použitia rýchleho generovania textu môžeme veľmi jednoducho načítať Arktídu a spustiť základnú inferenciu:

from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")
# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Malo by to vyjsť niečo ako:

„Hlavným mestom Francúzska je Paríž. Paríž je najväčšie mesto Francúzska a ekonomické, politické a kultúrne centrum krajiny. Je domovom známych pamiatok, ako je Eiffelova veža, múzeum Louvre a katedrála Notre-Dame.

Ako môžete vidieť, Arctic bezproblémovo rozumie dotazu a poskytuje podrobnú, uzemnenú odpoveď využívajúcu svoje robustné schopnosti porozumieť jazyku.

Jemné ladenie pre špecializované úlohy

Aj keď je Arctic pôsobivý hneď po vybalení, skutočne žiari, keď je prispôsobený a jemne doladený na vašich proprietárnych údajoch pre špecializované úlohy. Snowflake poskytla rozsiahle recepty pokrývajúce:

  • Spracovanie vysokokvalitných školiacich údajov prispôsobených pre váš prípad použitia
  • Implementácia prispôsobených viacstupňových vzdelávacích osnov
  • Využite efektívne prístupy jemného ladenia LoRA, P-Tuning alebo FactorizedFusion
  • Optimalizácia pre náročné SQL, kódovanie alebo iné kľúčové podnikové zručnosti

Tu je príklad, ako doladiť Arktídu na vlastných súboroch údajov kódovania pomocou receptov LoRA a Snowflake:

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)
# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)
# Your coding datasets
data = load_coding_datasets()
# Fine-tune with Snowflake's recipes
train(model, data, ...)

Tento kód ilustruje, ako môžete bez námahy načítať Arctic, inicializovať konfiguráciu LoRA prispôsobenú na generovanie kódu a potom doladiť model na vlastných súboroch údajov kódovania s využitím pokynov Snowflake.

Prispôsobený a vyladený Arctic sa stáva súkromnou elektrárňou vyladenou tak, aby poskytovala bezkonkurenčný výkon pri vašich základných podnikových pracovných postupoch a potrebách zainteresovaných strán.

Rýchly inovačný cyklus Arktídy

Jedným z najpôsobivejších aspektov Arktídy je bleskové tempo, akým výskumný tím AI spoločnosti Snowflake navrhol, vyvinul a vypustil do sveta tento špičkový model. Od začiatku až po vydanie s otvoreným zdrojovým kódom trval celý arktický projekt menej ako tri mesiace a využil len asi jednu osminu výpočtového rozpočtu typického pre školenie podobných veľkých jazykových modelov.

Táto schopnosť rýchlo opakovať, inovovať a produkovať najmodernejší výskum AI je skutočne pozoruhodná. Demonštruje hlboké technické schopnosti spoločnosti Snowflake a umožňuje spoločnosti neustále posúvať hranice vývoja nových, pre podniky optimalizovaných schopností AI.

Arktická rodina a vloženie

Arktída je len začiatkom ambícií Snowflake v oblasti Enterprise LLM. Spoločnosť už získala open source rodinu špičkových modelov na vkladanie textu Snowflake Arctic Embed, ktoré sú optimalizované pre výkon vyhľadávania v profiloch viacerých veľkostí.

Ako je znázornené nižšie, modely Arctic Embed dosahujú najmodernejšiu presnosť vyhľadávania v rešpektovanom benchmarku MTEB (textové vyhľadávanie), čím prekonávajú ostatné popredné modely vkladania vrátane uzavretých ponúk od veľkých technologických gigantov.

[Vložte obrázok zobrazujúci výsledky porovnávacích testov MTEB pre modely Arctic Embed]

Tieto modely zabudovania dopĺňajú Arctic LLM a umožňujú podnikom vytvárať výkonné riešenia generovania odpovedí na otázky a rozšírené vyhľadávanie z integrovaného balíka open source.

Ale plán Snowflake siaha ďaleko za Arktídu a zabudovanie. Výskumníci spoločnosti AI usilovne pracujú na rozšírení arktickej rodiny o nové modely prispôsobené pre multimodálne úlohy, reč, video a ďalšie hraničné schopnosti – všetky sú postavené na rovnakých princípoch špecializácie, efektivity a otvorenosti.

Partnerstvo pre otvorený ekosystém AI Snowflake chápe, že využitie plného potenciálu otvorenej AI na podnikovej úrovni si vyžaduje pestovanie bohatého ekosystému partnerstiev v rámci komunity AI. Vydanie Arctic už podnietilo spoluprácu s hlavnými platformami a poskytovateľmi:

NVIDIA úzko spolupracuje so spoločnosťou Snowflake s cieľom optimalizovať Arctic pre efektívne nasadenie pomocou špičkového inferenčného zásobníka AI od NVIDIA vrátane TensorRT, Triton a ďalších. To umožňuje podnikom obsluhovať Arktídu vo veľkom rozsahu a nákladovo efektívne.

Hugging Face, popredné centrum modelov s otvoreným zdrojovým kódom, privítalo Arctic do svojich knižníc a repozitárov modelov. To umožňuje bezproblémovú integráciu Arctic do existujúcich pracovných postupov a aplikácií AI založených na Hugging Face.

Platformy ako Replicate, SageMaker a ďalšie sa rýchlo posunuli a ponúkajú hosťované ukážky, rozhrania API a plynulé integračné cesty pre Arktídu, čím sa urýchlilo jej prijatie.

Otvorený zdroj riadil rozvoj Arktídy a otvorené ekosystémy zostávajú ústredným bodom jeho vývoja. Snowflake sa zaviazala podporovať bohatú spoluprácu s výskumníkmi, vývojármi, partnermi a podnikmi na celom svete, aby posunula hranice toho, čo je možné s otvorenými, špecializovanými modelmi AI.

Posledných päť rokov som strávil ponorením sa do fascinujúceho sveta strojového učenia a hlbokého učenia. Moja vášeň a odborné znalosti ma viedli k tomu, že som prispel k viac ako 50 rôznym projektom softvérového inžinierstva s osobitným zameraním na AI/ML. Moja neustála zvedavosť ma tiež priviedla k spracovaniu prirodzeného jazyka, oblasti, ktorú by som chcel ďalej skúmať.