ဆောင်းပါးတို Snowflake Arctic- Enterprise AI အတွက် Cutting-Edge LLM - Unite.AI
ကြှနျုပျတို့နှငျ့အတူချိတ်ဆက်ပါ

ဉာဏ်ရည်တု

Snowflake Arctic- Enterprise AI အတွက် Cutting-Edge LLM

mm

Published

 on

Snowflake Arctic- Enterprise AI အတွက် Cutting-Edge LLM

ယနေ့ခေတ်တွင် လုပ်ငန်းများသည် ကုန်ထုတ်စွမ်းအားမြှင့်တင်ရန်နှင့် ဉာဏ်ရည်ထက်မြက်သောအပလီကေးရှင်းများဖန်တီးရန်အတွက် ကြီးမားသောဘာသာစကားမော်ဒယ်များ (LLMs) ကို အသုံးချရန် နည်းလမ်းများကို ပိုမိုရှာဖွေနေကြသည်။ သို့သော်၊ ရရှိနိုင်သော LLM ရွေးချယ်မှုအများအပြားသည် ဒေတာခွဲခြမ်းစိတ်ဖြာမှု၊ ကုဒ်နံပါတ်နှင့် အလုပ်အလိုအလျောက်လုပ်ဆောင်ခြင်းကဲ့သို့သော အထူးပြုလုပ်ငန်းလိုအပ်ချက်များအတွက် အံဝင်ခွင်ကျမဖြစ်နိုင်သော ယေဘုယျပုံစံများဖြစ်သည်။ ဝင်ပါ။ နှင်းပွင့် အာတိတ် - ခေတ်မီဆန်းသစ်သော LLM သည် ပင်မလုပ်ငန်းသုံးကိစ္စများအတွက် ရည်ရွယ်၍ ဒီဇိုင်းထုတ်ထားပြီး အကောင်းဆုံးဖြစ်အောင် ပြုလုပ်ထားသည်။

Snowflake ရှိ AI သုတေသနအဖွဲ့မှ တီထွင်ထားသည့် Arctic သည် ထိရောက်သောလေ့ကျင့်မှု၊ ကုန်ကျစရိတ်သက်သာမှု၊ နှင့်မယှဉ်နိုင်သော ပွင့်လင်းမှုအဆင့်ဖြင့် ဖြစ်နိုင်ချေရှိသော နယ်နိမိတ်များကို တွန်းပို့ပါသည်။ ဤတော်လှန်ရေးပုံစံသည် လက်ရှိ LLM များနှင့် နှိုင်းယှဉ်ပါက ကွန်ပြူတာ ပါဝါ လိုအပ်သော်လည်း အဓိက လုပ်ငန်းစံနှုန်းများတွင် ထူးချွန်ပါသည်။ Arctic သည် လုပ်ငန်းဆိုင်ရာ AI အတွက် ဂိမ်းအပြောင်းအလဲဖြစ်စေသည့်အရာကို စူးစမ်းကြည့်ကြပါစို့။

Enterprise Intelligence ပြန်လည်သတ်မှတ်ခြင်း၏ အဓိကအချက်မှာ၊ Arctic သည် လုပ်ငန်းများအတွက် အမှန်တကယ်အရေးပါသည့် မက်ထရစ်များအတွက် ထူးခြားသောစွမ်းဆောင်ရည်များ ပေးဆောင်ခြင်းအပေါ် အာရုံစိုက်ခြင်းဖြစ်သည် – coding၊ SQL querying၊ ရှုပ်ထွေးသောညွှန်ကြားချက်များနောက်လိုက်လိုက်နှင့် အခြေခံအချက်-အခြေခံ outputs များထုတ်လုပ်ပေးခြင်း။ Snowflake သည် ဤအရေးပါသောစွမ်းရည်များကို ဝတ္ထုတစ်ပုဒ်အဖြစ် ပေါင်းစပ်ထားသည်။လုပ်ငန်းထောက်လှမ်းရေး"မက်ထရစ်။

ရလဒ်တွေက သူတို့ကိုယ်သူတို့ ပြောတာ။ အာတိတ်သည် လေ့ကျင့်ရေးအတွက် တွက်ချက်မှုဘတ်ဂျက်၏ ထက်ဝက်အောက်ကို အသုံးပြုနေစဉ်တွင် လုပ်ငန်းဆိုင်ရာထောက်လှမ်းရေးစံနှုန်းများတွင် LLAMA 7B နှင့် LLAMA 70B ကဲ့သို့သော မော်ဒယ်များနှင့် ကိုက်ညီသည် သို့မဟုတ် စွမ်းဆောင်ရည်ထက်သာလွန်သည်။ အသုံးချနေသော်လည်း ထူးထူးခြားခြား တွက်ချက်မှုအရင်းအမြစ်များသည် LLAMA 17B ထက် ၁၇ ဆ ပိုနည်းသည်။၊ Arctic သည် coding (HumanEval+၊ MBPP+)၊ SQL မျိုးဆက် (Spider) နှင့် အောက်ပါ ညွှန်ကြားချက် (IFEval) ကဲ့သို့သော အထူးပြုစမ်းသပ်မှုများတွင် တန်းတူညီမျှမှုကို ရရှိသည်။

သို့သော် အာတိတ်၏ စွမ်းပကားသည် စီးပွားရေးလုပ်ငန်းစံနှုန်းများထက် ကျော်လွန်သွားပါသည်။ ၎င်းသည် ယေဘူယျဘာသာစကားနားလည်မှု၊ ကျိုးကြောင်းဆင်ခြင်မှုနှင့် သင်္ချာစွမ်းရည်တို့တွင် DBRX ကဲ့သို့ အဆပိုမြင့်သော တွက်ချက်မှုဘတ်ဂျက်များဖြင့် လေ့ကျင့်ထားသော မော်ဒယ်များနှင့် နှိုင်းယှဉ်ပါက ခိုင်မာသောစွမ်းဆောင်ရည်ကို ထိန်းသိမ်းထားသည်။ ဤ လုံး၀ စွမ်းရည်သည် လုပ်ငန်းတစ်ခု၏ ကွဲပြားခြားနားသော AI လိုအပ်ချက်များကို ကိုင်တွယ်ဖြေရှင်းရန်အတွက် အာတိတ်တွင် မအောင်မြင်နိုင်သော ရွေးချယ်မှုတစ်ခု ဖြစ်စေသည်။

ဆန်းသစ်တီထွင်မှု

Dense-MoE Hybrid Transformer ဒါဆို Snowflake အဖွဲ့သည် မယုံနိုင်လောက်အောင် စွမ်းဆောင်ရည်ရှိပြီး ထိရောက်သော LLM ကို မည်သို့တည်ဆောက်ခဲ့သနည်း။ အဖြေသည် အာတိတ်၏ နောက်ဆုံးပေါ် Dense Mixture-of-Experts (MoE) Hybrid Transformer ဗိသုကာတွင် တည်ရှိပါသည်။

သမားရိုးကျသိပ်သည်းသော ထရန်စဖော်မာမော်ဒယ်များသည် ၎င်းတို့၏ အရွယ်အစား ကြီးထွားလာသည်နှင့်အမျှ လေ့ကျင့်ရန် စရိတ်စက ပိုများလာကာ ကွန်ပျူတာဆိုင်ရာ လိုအပ်ချက်များသည် မျဉ်းသားစွာ တိုးလာပါသည်။ MoE ဒီဇိုင်းသည် အပြိုင် feed-forward ကွန်ရက်များစွာ (ကျွမ်းကျင်သူများ) ကို အသုံးပြုကာ ထည့်သွင်းမှုတိုကင်တစ်ခုစီအတွက် အစုခွဲတစ်ခုကိုသာ အသက်သွင်းခြင်းဖြင့် ၎င်းကို ရှောင်တိမ်းနိုင်စေပါသည်။

သို့သော်၊ MoE ဗိသုကာကို ရိုးရိုးရှင်းရှင်းသုံးရုံဖြင့် မလုံလောက်ပါ - Arctic သည် သိပ်သည်းမှုနှင့် MoE အစိတ်အပိုင်းနှစ်ခုစလုံး၏ အားသာချက်များကို ကြံဆစွာ ပေါင်းစပ်ထားသည်။ ၎င်းသည် 10 billion parameter dense transformer encoder ကို 128 ကျွမ်းကျင်သူကျန်နေသော MoE multi-layer perceptron (MLP) အလွှာနှင့် တွဲပေးပါသည်။ ဤသိပ်သည်းသော-MoE ပေါင်းစပ်မော်ဒယ်သည် ကန့်သတ်ဘောင်ပေါင်း 480 ဘီလီယံရှိသော်လည်း top-17 gating ကို အသုံးပြု၍ သတ်မှတ်ထားသောအချိန်တွင် 2 ဘီလီယံသာ တက်ကြွပါသည်။

သက်ရောက်မှုများသည် လေးနက်သည် - အာတိတ်သည် လေ့ကျင့်သင်ကြားချိန်အတွင်း သိသိသာသာ တွက်ချက်မှု-ထိရောက်စွာ ကျန်ရှိနေသော်လည်း အာတိတ်သည် မကြုံစဖူး မော်ဒယ်အရည်အသွေးနှင့် စွမ်းရည်ကို ရရှိသည်။ ဥပမာအားဖြင့်၊ အာတိတ်တွင် DBRX ကဲ့သို့ မော်ဒယ်များထက် 50% ပိုနည်းသော တက်ကြွသော ကန့်သတ်ချက်များ ရှိသည်။

သို့သော် မော်ဒယ်ဗိသုကာသည် ဇာတ်လမ်း၏ အစိတ်အပိုင်းတစ်ခုသာဖြစ်သည်။ အာတိတ်၏ ထူးချွန်မှုသည် Snowflake သုတေသနအဖွဲ့မှ တီထွင်ထားသော ရှေ့ဆောင်နည်းပညာများနှင့် ထိုးထွင်းသိမြင်မှုများစွာ၏ အထွတ်အထိပ်ဖြစ်သည်။

  1. Enterprise-Focused Training Data Curriculum ကို ကျယ်ကျယ်ပြန့်ပြန့် စမ်းသပ်ခြင်းမှတဆင့်၊ အဖွဲ့သည် သာမန်ဆန်သော ကျိုးကြောင်းဆင်ခြင်ခြင်းကဲ့သို့ ယေဘုယျစွမ်းရည်များကို စောစောစီးစီး လေ့လာသင့်ပြီး Coding နှင့် SQL ကဲ့သို့သော ရှုပ်ထွေးသော အထူးပြုချက်များကို လေ့ကျင့်ရေးလုပ်ငန်းစဉ်တွင် နောက်ပိုင်းတွင် အကောင်းဆုံးရရှိသွားကြောင်း တွေ့ရှိခဲ့သည်။ အာတိတ်၏ ဒေတာ သင်ရိုးညွှန်းတမ်းသည် လူသားများ၏ သင်ယူမှု တိုးတက်မှုကို အတုယူသည့် အဆင့်သုံးဆင့် ချဉ်းကပ်နည်းကို လိုက်နာသည်။

ပထမ teratokens များသည် ကျယ်ပြန့်သော ယေဘုယျအခြေခံအုတ်မြစ်ကို တည်ဆောက်ရန် အာရုံစိုက်ကြသည်။ နောက်လာမည့် 1.5 teratokens များသည် SQL၊ coding လုပ်ဆောင်စရာများနှင့် အခြားအရာများအတွက် အံဝင်ခွင်ကျဖြစ်စေသော ဒေတာများမှတစ်ဆင့် လုပ်ငန်းကျွမ်းကျင်မှုဖွံ့ဖြိုးတိုးတက်စေရန် အာရုံစိုက်ပါသည်။ နောက်ဆုံး teratokens များသည် သန့်စင်ထားသော datasets များကို အသုံးပြု၍ Arctic ၏ အထူးပြုမှုများကို ထပ်လောင်းသန့်စင်သည်။

  1. အကောင်းဆုံးဗိသုကာရွေးချယ်မှုများ MoEs သည် ကွန်ပြူတာတစ်ခုလျှင် အရည်အသွေးပိုကောင်းမည်ဟု ကတိပေးသော်လည်း မှန်ကန်သောဖွဲ့စည်းပုံများကို ရွေးချယ်ခြင်းသည် အရေးကြီးသော်လည်း နားလည်မှု အားနည်းပါသည်။ အသေးစိတ် သုတေသနပြုခြင်းဖြင့် Snowflake သည် အရည်အသွေး-ထိရောက်မှုဆိုင်ရာ ဖလှယ်မှုများကို အကဲဖြတ်ပြီးနောက် အလွှာတိုင်းတွင် ထိပ်တန်း 128 ဦးဖြင့် ကျွမ်းကျင်သူ 2 ဦးကို ခန့်အပ်ထားသော ဗိသုကာလက်ရာတစ်ခုပေါ်တွင် ဆင်းသက်လာခဲ့သည်။

ကျွမ်းကျင်သူအရေအတွက် တိုးလာခြင်းသည် ပေါင်းစပ်မှုများ ပိုမိုရရှိစေပြီး မော်ဒယ်စွမ်းရည်ကို မြှင့်တင်ပေးပါသည်။ သို့သော်၊ ၎င်းသည် ဆက်သွယ်ရေးကုန်ကျစရိတ်ကိုလည်း တိုးစေသောကြောင့် Snowflake သည် အကောင်းဆုံးချိန်ခွင်လျှာအဖြစ် top-128 gate မှတစ်ဆင့် ဂရုတစိုက်ပုံစံထုတ်ထားသော ကျွမ်းကျင်သူ 2 ဦးထံ ဆင်းသက်လာသည်။

  1. System Co-Design သော်လည်းကောင်း အကောင်းဆုံး မော်ဒယ်ဗိသုကာတစ်ခုပင်လျှင် စနစ်ဆိုင်ရာ ပိတ်ဆို့မှုများကြောင့် ထိခိုက်စေနိုင်သည်။ ထို့ကြောင့် Snowflake အဖွဲ့သည် ဤနေရာတွင်လည်း ဆန်းသစ်တီထွင်ခဲ့သည် – မော်ဒယ်ဗိသုကာလက်ရာကို အရင်းခံလေ့ကျင့်မှုနှင့် အနုမာနစနစ်များနှင့်အတူ ပူးတွဲဒီဇိုင်းရေးဆွဲခဲ့သည်။

ထိရောက်သောလေ့ကျင့်မှုများအတွက်၊ အလွန်အကျွံနှင့် MoE အစိတ်အပိုင်းများကို ထပ်နေသော ဆက်သွယ်ရေးနှင့် တွက်ချက်ခြင်းတို့ကို လုပ်ဆောင်နိုင်စေရန်၊ များပြားလှသော ဆက်သွယ်မှုအပေါ်ယံများကို ဖုံးကွယ်ထားသည်။ အနုမာနဘက်တွင်၊ အဖွဲ့သည် Arctic ၏စကေးရှိသော်လည်း မြင့်မားသောထိရောက်စွာအသုံးချနိုင်စေရန် NVIDIA ၏တီထွင်ဆန်းသစ်မှုများကို အသုံးချခဲ့သည်။

FP8 quantization ကဲ့သို့နည်းပညာများသည် အပြန်အလှန်အကျိုးသက်ရောက်မှုရှိသော inference အတွက် GPU node တစ်ခုတွင် မော်ဒယ်အပြည့်အစုံကို အံဝင်ခွင်ကျဖြစ်စေပါသည်။ ပိုကြီးသောအသုတ်များသည် ၎င်း၏ကျစ်လစ်သိပ်သည်းသော 17B တက်ကြွသောကန့်သတ်ဘောင်များကြောင့် အထင်ကြီးလောက်စရာတွက်ချက်မှုထိရောက်စွာကျန်ရှိနေချိန်တွင် Arctic ၏ parallelism စွမ်းရည်များကို ပေါင်းစပ်ထားသည်။

Apache 2.0 လိုင်စင်ဖြင့်၊ အာတိတ်၏အလေးချိန်နှင့် ကုဒ်များကို ကိုယ်ရေးကိုယ်တာ၊ သုတေသန သို့မဟုတ် စီးပွားဖြစ်အသုံးပြုမှုတိုင်းအတွက် မလိုအပ်ပါ။ သို့သော် Snowflake သည် ၎င်းတို့၏ ပြီးပြည့်စုံသော ဒေတာချက်ပြုတ်နည်းများ၊ မော်ဒယ်အကောင်အထည်ဖော်မှု၊ အကြံပြုချက်များနှင့် အာတိတ်ကို အားကောင်းစေမည့် နက်နဲသော သုတေသနဆိုင်ရာ ထိုးထွင်းသိမြင်မှုတို့ကို အခမဲ့ရှာဖွေပေးလျက်ရှိသည်။

အဆိုပါ "အာတိတ်ချက်ပြုတ်နည်းစာအုပ်” သည် အာတိတ်ကဲ့သို့သော အကြီးစား MoE မော်ဒယ်ကို အကောင်းဆုံးဖြစ်အောင် တည်ဆောက်ခြင်းနှင့် ကဏ္ဍပေါင်းစုံကို လွှမ်းခြုံထားသော ပြည့်စုံသော အသိပညာအခြေခံတစ်ခုဖြစ်သည်။ ၎င်းသည် ဒေတာအရင်းအမြစ်ရှာဖွေခြင်း၊ မော်ဒယ်ဗိသုကာဒီဇိုင်း၊ စနစ်တွဲဖက်ဒီဇိုင်း၊ ပိုမိုကောင်းမွန်အောင်ပြုလုပ်ထားသော လေ့ကျင့်ရေး/အနုမာနအစီအစဥ်များနှင့် အခြားအရာများတစ်လျှောက် အဓိကသင်ယူမှုများကို ပေါင်းထည့်သည်။

အကောင်းဆုံးဒေတာ သင်ရိုးညွှန်းတမ်းများကို ခွဲခြားသတ်မှတ်ခြင်းမှသည် စုစည်းမှုစနစ်များ၊ အချိန်ဇယားဆွဲသူများနှင့် ဟာ့ဒ်ဝဲများကို ပူးတွဲအကောင်းဆုံးဖြစ်အောင် ဖန်တီးနေစဉ် MoEs ဗိသုကာပြုခြင်းအထိ - ဤကျယ်ပြန့်သောအသိပညာ၏ကိုယ်ထည်သည် ယခင်က အထက်တန်းစား AI ဓာတ်ခွဲခန်းများတွင် ကန့်သတ်ထားသော ကျွမ်းကျင်မှုများကို ဒီမိုကရေစီအဖြစ် ပြောင်းလဲစေသည်။ Arctic Cookbook သည် သင်ယူမှုလမ်းကြောင်းများကို အရှိန်မြှင့်ပေးပြီး အသုံးပြုမှုအားလုံးနီးပါးအတွက် ၎င်းတို့၏ကိုယ်ပိုင်စရိတ်သက်သာသော၊ အံဝင်ခွင်ကျဖြစ်သော LLMs များကို ဖန်တီးရန် တစ်ကမ္ဘာလုံးရှိ စီးပွားရေးလုပ်ငန်းများ၊ သုတေသီများနှင့် ဆော့ဖ်ဝဲရေးသားသူများကို ခွန်အားပေးသည်။

အာတိတ်ကို စတင်လိုက်ပါ။

အာတိတ်ကို အသုံးချလိုသော ကုမ္ပဏီများအတွက် Snowflake သည် အမြန်စတင်ရန် လမ်းကြောင်းများစွာကို ပေးသည်-

Serverless Inference- Snowflake သုံးစွဲသူများသည် ကုမ္ပဏီ၏ အပြည့်အဝ စီမံခန့်ခွဲထားသော AI ပလပ်ဖောင်းဖြစ်သော Snowflake Cortex တွင် Arctic မော်ဒယ်ကို အခမဲ့ ဝင်ရောက်ကြည့်ရှုနိုင်ပါသည်။ ထို့အပြင်၊ AWS၊ Microsoft Azure၊ NVIDIA နှင့် အခြားအရာများကဲ့သို့ အဓိက မော်ဒယ် ကတ်တလောက်များအားလုံးတွင် Arctic ကို ရရှိနိုင်ပါသည်။

Scratch မှစတင်ပါ- open source model အလေးချိန်များနှင့် အကောင်အထည်ဖော်မှုများသည် developer များအား Arctic ကို ၎င်းတို့၏အက်ပ်များနှင့် ဝန်ဆောင်မှုများတွင် တိုက်ရိုက်ပေါင်းစပ်နိုင်စေပါသည်။ Arctic repo သည် ကုဒ်နမူနာများ၊ အသုံးချခြင်းဆိုင်ရာ သင်ခန်းစာများ၊ ပြင်ဆင်ချိန်ညှိခြင်း ချက်ပြုတ်နည်းများနှင့် အခြားအရာများကို ပံ့ပိုးပေးပါသည်။

စိတ်ကြိုက်ပုံစံများတည်ဆောက်ပါ- Arctic Cookbook ၏ ပြည့်စုံသောလမ်းညွှန်ချက်များကြောင့် developer များသည် Arctic ၏ ဖွံ့ဖြိုးတိုးတက်မှုမှ သင်ယူမှုများကို အသုံးပြု၍ မည်သည့် အထူးပြုအသုံးပြုမှုကိစ္စအတွက်မဆို အကောင်းဆုံးဖြစ်အောင် ဖန်တီးနိုင်သည် ။

Open Enterprise AI Arctic ၏ ခေတ်သစ်သည် အစွမ်းထက်သော ဘာသာစကားပုံစံတစ်ခုမျှသာဖြစ်သည် - ၎င်းသည် လုပ်ငန်းအတွက် ရည်ရွယ်တည်ဆောက်ထားသော ပွင့်လင်းမှု၊ ကုန်ကျစရိတ်သက်သာပြီး အထူးပြု AI စွမ်းရည်များ ခေတ်သစ်ကို ဖော်ညွှန်းသည်။

ဒေတာခွဲခြမ်းစိတ်ဖြာမှုနှင့် coding ထုတ်လုပ်မှုစွမ်းရည်ကို တော်လှန်ပြောင်းလဲခြင်းမှ လုပ်ငန်းဆောင်တာ အလိုအလျောက်စနစ်နှင့် စမတ်ကျသော အပလီကေးရှင်းများအထိ၊ Arctic ၏ လုပ်ငန်းဆိုင်ရာ ပထမ DNA သည် ၎င်းအား ယေဘူယျ LLM များထက် မသာမယာ ရွေးချယ်မှုတစ်ခု ဖြစ်လာစေသည်။ မိုဒယ်တစ်ခုတည်းသာမက R&D လုပ်ငန်းစဉ်တစ်ခုလုံးကို ပွင့်လင်းမြင်သာစွာရှာဖွေခြင်းဖြင့် Snowflake သည် AI ဂေဟစနစ်တစ်ခုလုံးကို မြှင့်တင်ပေးမည့် ပူးပေါင်းဆောင်ရွက်မှုယဉ်ကျေးမှုကို မွေးမြူလျက်ရှိသည်။

လုပ်ငန်းများသည် မျိုးဆက်သစ် AI ကို ပိုမိုလက်ခံလာသည်နှင့်အမျှ၊ Arctic သည် ထုတ်လုပ်မှုလုပ်ငန်းနှင့် လုပ်ငန်းပတ်ဝန်းကျင်အတွက် သာလွန်ကောင်းမွန်သော မော်ဒယ်များကို တီထွင်ထုတ်လုပ်ရန်အတွက် ရဲရင့်သောပုံစံများကို ထုတ်ပေးပါသည်။ ၎င်း၏ နောက်ဆုံးပေါ် သုတေသနပြုမှု၏ လွှမ်းမိုးမှု၊ ယှဉ်မနိုင်သော စွမ်းဆောင်ရည်နှင့် ခိုင်မာသော ပွင့်လင်းသော ကျင့်ဝတ်များသည် AI ၏ အသွင်ကူးပြောင်းရေး အလားအလာကို ဒီမိုကရေစီအသွင်ကူးပြောင်းရေးတွင် စံအမှတ်သစ်တစ်ခု သတ်မှတ်ပေးသည်။

ဤသည်မှာ Snowflake Arctic မော်ဒယ်ကို အသုံးပြုနည်းအတွက် ကုဒ်နမူနာများ ပါရှိသည့် ကဏ္ဍတစ်ခုဖြစ်သည်။

အာတိတ်နှင့်အတူ လက်ဆင့်ကမ်းပါ။

ယခု ကျွန်ုပ်တို့သည် အာတိတ်ကို အမှန်တကယ် အထစ်အငေါ့ဖြစ်စေသည့်အချက်ကို ခြုံငုံမိပြီးဖြစ်၍ developer များနှင့် ဒေတာသိပ္ပံပညာရှင်များသည် ဤစွမ်းအားစုပုံစံကို စတင်လုပ်ဆောင်နိုင်ပုံကို စူးစမ်းကြည့်ကြပါစို့။
Arctic သည် ကြိုတင်လေ့ကျင့်သင်ကြားထားပြီး Hugging Face နှင့် ပါတနာ AI ပလပ်ဖောင်းများကဲ့သို့ အဓိက မော်ဒယ်ဗဟိုချက်နေရာများမှတစ်ဆင့် ဖြန့်ကျက်အသုံးပြုနိုင်ပါသည်။ သို့သော် သင်၏ သီးခြားအသုံးပြုမှုကိစ္စများအတွက် ၎င်းကို စိတ်ကြိုက်ပြင်ဆင်ပြီး ချိန်ညှိသည့်အခါ ၎င်း၏အစစ်အမှန်စွမ်းအားသည် ထွက်ပေါ်လာသည်။

Arctic ၏ Apache 2.0 လိုင်စင်သည် ၎င်းကို သင်၏အက်ပ်များ၊ ဝန်ဆောင်မှုများ သို့မဟုတ် စိတ်ကြိုက် AI လုပ်ငန်းအသွားအလာများတွင် ပေါင်းစည်းရန် အပြည့်အဝလွတ်လပ်ခွင့်ပေးပါသည်။ သင်စတင်ရန်အတွက် ထရန်စဖော်မာဒစ်ဂျစ်တိုက်ကို အသုံးပြု၍ ကုဒ်နမူနာအချို့ကို ဖြတ်သန်းကြည့်ကြပါစို့။
အာတိတ်နှင့် အခြေခံ ကောက်ချက်

လျင်မြန်သော စာသားဖန်တီးမှုဆိုင်ရာ အသုံးပြုမှုကိစ္စများအတွက်၊ ကျွန်ုပ်တို့သည် အာတိတ်ကိုတင်၍ အခြေခံကောက်ချက်ကို အလွန်လွယ်ကူစွာ လုပ်ဆောင်နိုင်သည်-

from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct")
# Create a simple input and generate text
input_text = "Here is a basic question: What is the capital of France?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response with Arctic
output = model.generate(input_ids, max_length=150, do_sample=True, top_k=50, top_p=0.95, num_return_sequences=1)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

၎င်းသည် ကဲ့သို့သော အရာများကို ထုတ်ပေးသင့်သည်-

“ပြင်သစ်ရဲ့မြို့တော်က ပါရီပါ။ ပါရီသည် ပြင်သစ်နိုင်ငံ၏ အကြီးဆုံးမြို့ဖြစ်ပြီး နိုင်ငံ၏စီးပွားရေး၊ နိုင်ငံရေးနှင့် ယဉ်ကျေးမှုဗဟိုချက်ဖြစ်သည်။ Eiffel Tower၊ Louvre ပြတိုက်နှင့် Notre-Dame Cathedral တို့ကဲ့သို့ ထင်ရှားသော အထင်ကရနေရာများ တည်ရှိရာ နေရာဖြစ်သည်။”

သင်တွေ့မြင်ရသည့်အတိုင်း၊ Arctic သည် စုံစမ်းမေးမြန်းမှုကို ချောမွေ့စွာနားလည်ပြီး ၎င်း၏ခိုင်မာသောဘာသာစကားနားလည်နိုင်စွမ်းကို အသုံးချကာ အသေးစိတ်အခြေခံထားသော တုံ့ပြန်မှုကို ပေးဆောင်သည်။

အထူးပြုလုပ်ဆောင်စရာများအတွက် ချိန်ညှိခြင်း

အထူးပြုလုပ်ဆောင်စရာများအတွက် သင်၏ကိုယ်ပိုင်ဒေတာကို စိတ်ကြိုက်ပြင်ဆင်ပြီး ကောင်းစွာချိန်ညှိသောအခါတွင် အာတိတ်သည် အံ့အားသင့်ဖွယ်ကောင်းသော်လည်း၊ Snowflake သည် ကျယ်ပြန့်သော ချက်ပြုတ်နည်းများကို ပံ့ပိုးပေးသည်-

  • သင့်အသုံးပြုမှုကိစ္စအတွက် အံဝင်ခွင်ကျဖြစ်စေသော အရည်အသွေးမြင့် လေ့ကျင့်ရေးဒေတာကို ဖြည့်ဆည်းပေးခြင်း
  • စိတ်ကြိုက် အဆင့်ပေါင်းများစွာ လေ့ကျင့်ရေး သင်ရိုးညွှန်းတမ်းများကို အကောင်အထည်ဖော်ခြင်း။
  • ထိရောက်သော LoRA၊ P-Tuning သို့မဟုတ်FactorizedFusion fine-tuning ချဉ်းကပ်မှုများကို အသုံးချပါ။
  • ပိုင်းခြားသိမြင်နိုင်သော SQL၊ ကုဒ်ရေးခြင်း သို့မဟုတ် အခြားသော အဓိကလုပ်ငန်းကျွမ်းကျင်မှုများအတွက် ပိုမိုကောင်းမွန်အောင်ပြုလုပ်ခြင်း

ဤသည်မှာ LoRA နှင့် Snowflake ၏ချက်ပြုတ်နည်းများကို အသုံးပြု၍ သင်၏ကိုယ်ပိုင်ကုဒ်ဒေတာအတွဲများပေါ်တွင် အာတိတ်ကို ချိန်ညှိနည်း ဥပမာတစ်ခုဖြစ်သည်။

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import LoraConfig, get_peft_model, prepare_model_for_int8_training
# Load base Arctic model
tokenizer = AutoTokenizer.from_pretrained("Snowflake/snowflake-arctic-instruct")
model = AutoModelForCausalLM.from_pretrained("Snowflake/snowflake-arctic-instruct", load_in_8bit=True)
# Initialize LoRA configs
lora_config = LoraConfig(
r=8,
lora_alpha=16,
target_modules=["query_key_value"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# Prepare model for LoRA finetuning
model = prepare_model_for_int8_training(model)
model = get_peft_model(model, lora_config)
# Your coding datasets
data = load_coding_datasets()
# Fine-tune with Snowflake's recipes
train(model, data, ...)

ဤကုဒ်သည် သင်အား အာတိတ်ကို မည်သို့အားစိုက်ထုတ်နိုင်ပုံ၊ ကုဒ်ထုတ်လုပ်ရန်အတွက် အံဝင်ခွင်ကျဖြစ်သော LoRA configuration ကို အစပြု၍ Snowflake ၏ လမ်းညွှန်ချက်ကို အသုံးချကာ သင်၏ကိုယ်ပိုင်ကုဒ်ဒေတာအတွဲများပေါ်တွင် မော်ဒယ်ကို ကောင်းစွာချိန်ညှိပေးသည်။

စိတ်ကြိုက်ပြင်ဆင်ပြီး ကောင်းမွန်စွာ ချိန်ညှိထားသော၊ အာတိတ်သည် သင်၏အဓိကလုပ်ငန်းအသွားအလာများနှင့် အစုအဖွဲ့များ၏လိုအပ်ချက်များအပေါ် လိုက်လျောညီထွေမဖြစ်နိုင်သော စွမ်းဆောင်ရည်ကို ပေးဆောင်ရန် ချိန်ညှိထားသည့် သီးသန့်စွမ်းအားစုဖြစ်လာသည်။

အာတိတ်၏ လျင်မြန်သော ဆန်းသစ်တီထွင်မှုစက်ဝန်း

Arctic ၏အထင်ကြီးစရာအကောင်းဆုံးရှုထောင့်များထဲမှတစ်ခုမှာ Snowflake ၏ AI သုတေသနအဖွဲ့မှ ဤခေတ်မီဆန်းသစ်သောပုံစံကို ကမ္ဘာသို့ထုတ်လွှတ်လိုက်သည့် ခြေလှမ်းကျဲကျဲဖြစ်သည်။ စတင်ဖွဲ့စည်းချိန်မှ open source ထုတ်ဝေမှုအထိ၊ Arctic ပရောဂျက်တစ်ခုလုံးသည် သုံးလထက်နည်းသော အချိန်ယူခဲ့ပြီး အလားတူ ဘာသာစကားကြီးများကို လေ့ကျင့်ရန်အတွက် ပုံမှန်တွက်ချက်မှုဘတ်ဂျက်၏ ရှစ်ပုံတစ်ပုံခန့်ကိုသာ သုံးစွဲခဲ့သည်။

ခေတ်မီဆန်းသစ်သော AI သုတေသနကို လျင်မြန်စွာ ထပ်တလဲလဲ၊ ဆန်းသစ်တီထွင်ပြီး ထုတ်လုပ်နိုင်မှုစွမ်းရည်သည် အမှန်တကယ် မှတ်သားဖွယ်ကောင်းပါသည်။ ၎င်းသည် Snowflake ၏ နက်ရှိုင်းသော နည်းပညာဆိုင်ရာ စွမ်းရည်များကို သရုပ်ပြပြီး ကုမ္ပဏီသည် ဆန်းသစ်သော၊ လုပ်ငန်းဆိုင်ရာ အကောင်းဆုံး AI စွမ်းရည်များကို တီထွင်ထုတ်လုပ်ရန် နယ်နိမိတ်များကို စဉ်ဆက်မပြတ်တွန်းအားပေးရန် ကုမ္ပဏီအား ရပ်တည်ချက်ပေးထားသည်။

အာတိတ်မိသားစုနှင့် မြှုပ်နှံထားသည်။

Arctic သည် လုပ်ငန်း LLM နေရာရှိ Snowflake ၏ရည်မှန်းချက်များစတင်ခြင်းသာဖြစ်သည်။ ကုမ္ပဏီသည် အရွယ်အစားအမျိုးမျိုးရှိ ပရိုဖိုင်များကို ပြန်လည်ရယူခြင်းအတွက် စွမ်းဆောင်ရည်အတွက် အကောင်းဆုံးလုပ်ဆောင်နိုင်သော စက်မှုလုပ်ငန်းဦးဆောင်သော စာသားမြှုပ်သွင်းထားသော မော်ဒယ်များ၏ Snowflake Arctic Embed မိသားစုကို open source ပေးထားပြီးဖြစ်သည်။

အောက်တွင်ဖော်ပြထားသည့်အတိုင်း၊ Arctic Embed မော်ဒယ်များသည် နည်းပညာဘီလူးကြီးများထံမှ အပိတ်ကမ်းလှမ်းမှုများအပါအဝင် အခြားထိပ်တန်းနည်းပညာကုမ္ပဏီကြီးများမှ အပိတ်ကမ်းလှမ်းမှုများအပါအဝင် လေးစားဖွယ် MTEB (စာသားပြန်လည်ရယူခြင်း) စံညွှန်းတွင် ခေတ်မီသော တိကျမှုကို ရရှိသည်။

[Arctic Embed မော်ဒယ်များအတွက် MTEB ထုတ်ယူမှုစံနှုန်းရလဒ်များကိုပြသသည့်ပုံကို ထည့်သွင်းပါ]

ဤထည့်သွင်းမှုပုံစံများသည် Arctic LLM ကို ဖြည့်စွက်ပြီး ပေါင်းစပ်ပွင့်လင်းရင်းမြစ်အစုမှ အစွမ်းထက်သော အမေးအဖြေများနှင့် ပြန်လည်ရယူသည့် မျိုးဆက်သစ်ဖြေရှင်းချက်များကို တည်ဆောက်နိုင်စေရန် လုပ်ငန်းများကို ပံ့ပိုးပေးပါသည်။

သို့သော် Snowflake ၏ လမ်းပြမြေပုံသည် အာတိတ်နှင့် မြှုပ်နှံမှုများထက် ကောင်းစွာ ကျယ်ပြန့်သည်။ ကုမ္ပဏီ၏ AI သုတေသီများသည် အာတိတ်မိသားစုကို ဘက်စုံလုပ်ဆောင်စရာများ၊ စကားပြောဆိုမှု၊ ဗီဒီယိုနှင့် ပိုမိုကျယ်ပြန့်သော စွမ်းဆောင်ရည်များအတွက် အံဝင်ခွင်ကျဖြစ်စေသော မော်ဒယ်အသစ်များဖြင့် အာတိတ်မိသားစုကို တိုးချဲ့ရန် ခက်ခက်ခဲခဲလုပ်ဆောင်နေကြသည်—အားလုံးသည် အထူးပြုမှု၊ ထိရောက်မှုနှင့် ပွင့်လင်းမှုတို့ကို အသုံးပြု၍ တည်ဆောက်ထားသည်။

ပွင့်လင်းသော AI ဂေဟစနစ်အတွက် ပူးပေါင်းဆောင်ရွက်ခြင်း Snowflake သည် ပွင့်လင်းမြင်သာမှုရှိသော လုပ်ငန်းအဆင့် AI ၏ အလားအလာကို အပြည့်အဝနားလည်သဘောပေါက်ရန် AI အသိုက်အဝန်းတစ်လျှောက် ကြွယ်ဝသောပူးပေါင်းဆောင်ရွက်မှုများ ပြုစုပျိုးထောင်ရန် လိုအပ်ကြောင်း နားလည်ပါသည်။ Arctic ထုတ်ဝေမှုတွင် အဓိက ပလက်ဖောင်းများနှင့် ပံ့ပိုးပေးသူများနှင့် ပူးပေါင်းလုပ်ဆောင်မှုများကို သွပ်ရည်ပြုထားပြီးဖြစ်သည်-

NVIDIA သည် TensorRT၊ Triton နှင့် အခြားအရာများ အပါအဝင် NVIDIA ၏ နောက်ဆုံးပေါ် AI inference stack ကို အသုံးပြု၍ Arctic ကို ထိရောက်စွာ အသုံးချနိုင်စေရန် Snowflake နှင့် အနီးကပ် ပူးပေါင်းဆောင်ရွက်ခဲ့ပါသည်။ ယင်းက လုပ်ငန်းများအား အာတိတ်ကို အတိုင်းအတာတစ်ခုအထိ ကုန်ကျစရိတ်သက်သာစွာဖြင့် ဝန်ဆောင်မှုပေးနိုင်စေပါသည်။

ထိပ်တန်း open source မော်ဒယ်ဗဟိုဖြစ်သော Hugging Face သည် အာတိတ်ကို ၎င်း၏စာကြည့်တိုက်များနှင့် မော်ဒယ်သိုလှောင်ခန်းများသို့ ကြိုဆိုခဲ့သည်။ ၎င်းသည် လက်ရှိ Hugging Face-based AI အလုပ်အသွားအလာများနှင့် အပလီကေးရှင်းများတွင် Arctic ကို ချောမွေ့စွာ ပေါင်းစပ်နိုင်စေပါသည်။

Replicate၊ SageMaker နှင့် အခြားအရာများကဲ့သို့သော ပလပ်ဖောင်းများသည် လက်ခံထားသည့်သရုပ်ပြများ၊ API များနှင့် အာတိတ်အတွက် သွက်လက်စွာပေါင်းစပ်မှုလမ်းကြောင်းများကို ပေးဆောင်ရန် လျင်မြန်စွာ ရွေ့လျားလာခဲ့ပြီး ၎င်း၏မွေးစားခြင်းကို အရှိန်မြှင့်ခဲ့သည်။

ပွင့်လင်းသောအရင်းအမြစ်သည် အာတိတ်၏ဖွံ့ဖြိုးတိုးတက်မှုကို ပဲ့ကိုင်ခဲ့ပြီး ပွင့်လင်းသောဂေဟစနစ်သည် ၎င်း၏ဆင့်ကဲဖြစ်စဉ်အတွက် အဓိကကျသည်။ Snowflake သည် ပွင့်လင်းမြင်သာသော အထူးပြု AI မော်ဒယ်များဖြင့် ဖြစ်နိုင်ချေရှိသော နယ်နိမိတ်များကို တွန်းအားပေးရန်အတွက် ကမ္ဘာတစ်ဝှမ်းရှိ သုတေသီများ၊ တီထွင်သူများ၊ ပါတနာများနှင့် စီးပွားရေးလုပ်ငန်းများနှင့် ကြွယ်ဝသော ပူးပေါင်းဆောင်ရွက်မှုကို မြှင့်တင်ရန် ကတိပြုပါသည်။

လွန်ခဲ့သည့်ငါးနှစ်တာကာလအတွင်း ကျွန်ုပ်သည် စွဲမက်ဖွယ်ကောင်းသော Machine Learning နှင့် Deep Learning ၏ကမ္ဘာကြီးတွင် ကိုယ့်ကိုယ်ကို နှစ်မြှုပ်နေခဲ့သည်။ ကျွန်ုပ်၏စိတ်အားထက်သန်မှုနှင့် ကျွမ်းကျင်မှုသည် AI/ML ကို အထူးအာရုံစိုက်ခြင်းဖြင့် ကွဲပြားသောဆော့ဖ်ဝဲလ်အင်ဂျင်နီယာပရောဂျက် 50 ကျော်တွင် ပါဝင်ကူညီနိုင်စေခဲ့သည်။ ဆက်လက်လေ့လာစူးစမ်းလိုစိတ်ပြင်းပြသော ကျွန်ုပ်၏စိတ်အားထက်သန်မှုရှိသော နယ်ပယ်တစ်ခုဖြစ်သည့် Natural Language Processing သို့လည်း ကျွန်ုပ်ကို ဆွဲဆောင်ခဲ့ပါသည်။