ဆောင်းပါးတို ရှင်းပြနိုင်သော AI ဆိုတာဘာလဲ။ - Unite.AI
ကြှနျုပျတို့နှငျ့အတူချိတ်ဆက်ပါ
AI Masterclass-

AI ၅၀

ရှင်းပြနိုင်သော AI ဆိုတာဘာလဲ။

နောက်ဆုံးရေးသားချိန် on
ပုံ- Unsplash ရှိ DeepMind

Artificial Intelligence (AI) သည် လူ့အဖွဲ့အစည်းအတွင်း ပိုမိုရှုပ်ထွေးပြီး ကျယ်ကျယ်ပြန့်ပြန့် လက်ခံကျင့်သုံးလာသည်နှင့်အမျှ၊ အရေးကြီးဆုံးသော လုပ်ငန်းစဉ်များနှင့် နည်းလမ်းများထဲမှ တစ်ခုကို ရှင်းပြနိုင်သည် (AI) ကို တစ်ခါတစ်ရံ XAI ဟုခေါ်သည်။ 

ရှင်းပြနိုင်သော AI ကို အောက်ပါအတိုင်း သတ်မှတ်နိုင်သည်။

  • စက်သင်ယူမှုဆိုင်ရာ အယ်လဂိုရီသမ်များ၏ ရလဒ်များကို လူသားအသုံးပြုသူများ နားလည်နိုင်စေရန် ကူညီပေးသည့် လုပ်ငန်းစဉ်များနှင့် နည်းလမ်းအစုံ။ 

သင်ခန့်မှန်းနိုင်သကဲ့သို့၊ AI algorithms သည် ဘက်လိုက်မှုအန္တရာယ်၊ မှားယွင်းသော algorithms နှင့် အခြားပြဿနာများနှင့်အတူ ကဏ္ဍများစွာကို ထိန်းချုပ်ထားသောကြောင့် ဤရှင်းပြနိုင်မှုသည် မယုံနိုင်လောက်အောင် အရေးကြီးပါသည်။ ပွင့်လင်းမြင်သာမှုဖြင့် ရှင်းပြနိုင်စွမ်းရှိခြင်းဖြင့် ကမ္ဘာကြီးသည် AI ၏စွမ်းအားကို အမှန်တကယ် လွှမ်းမိုးနိုင်မည်ဖြစ်သည်။ 

နာမည်အကြံပြုထားသည့်အတိုင်း ရှင်းပြနိုင်သော AI သည် AI မော်ဒယ်၊ ၎င်း၏အကျိုးသက်ရောက်မှုနှင့် ဖြစ်နိုင်ခြေရှိသော ဘက်လိုက်မှုများကို ဖော်ပြရာတွင် ကူညီပေးပါသည်။ ၎င်းသည် AI စွမ်းအင်သုံး ဆုံးဖြတ်ချက်ချခြင်းလုပ်ငန်းစဉ်များတွင် မော်ဒယ်တိကျမှု၊ တရားမျှတမှု၊ ပွင့်လင်းမြင်သာမှုနှင့် ရလဒ်များကို ဖော်ပြရာတွင်လည်း အခန်းကဏ္ဍတစ်ခုမှ ပါဝင်ပါသည်။ 

ယနေ့ခေတ် AI မောင်းနှင်သော အဖွဲ့အစည်းများသည် ထုတ်လုပ်မှုတွင် AI မော်ဒယ်များကို ယုံကြည်မှုနှင့် ယုံကြည်မှုတည်ဆောက်ရာတွင် အထောက်အကူဖြစ်စေရန် ရှင်းပြနိုင်သော AI လုပ်ငန်းစဉ်များကို အမြဲတမ်းချမှတ်သင့်သည်။ ရှင်းပြနိုင်သော AI သည် ယနေ့ခေတ် AI ပတ်ဝန်းကျင်တွင် တာဝန်ရှိသော ကုမ္ပဏီတစ်ခုဖြစ်လာရန် သော့ချက်ဖြစ်သည်။

ယနေ့ခေတ် AI စနစ်များသည် အလွန်အဆင့်မြင့်လာသောကြောင့် လူသားများသည် algorithm ရလဒ်ကို မည်သို့ပြန်လည်ခြေရာခံရန် တွက်ချက်မှုလုပ်ငန်းစဉ်ကို လုပ်ဆောင်လေ့ရှိပါသည်။ ဤလုပ်ငန်းစဉ်သည် “Black Box” ဖြစ်လာပြီး နားလည်ရန် မဖြစ်နိုင်ပေ။ ဤမရှင်းပြနိုင်သော မော်ဒယ်များကို ဒေတာမှ တိုက်ရိုက်တီထွင်သောအခါ၊ ၎င်းတို့အတွင်း၌ ဖြစ်ပျက်နေသည်များကို မည်သူမျှ နားမလည်နိုင်ပါ။ 

ရှင်းပြနိုင်သော AI စနစ်များဖြင့် AI စနစ်များ မည်သို့လုပ်ဆောင်သည်ကို နားလည်ခြင်းဖြင့် developer များသည် စနစ်သည် ၎င်းကဲ့သို့ အလုပ်လုပ်ကြောင်း သေချာစေနိုင်သည်။ ၎င်းသည် မော်ဒယ်အား စည်းမျဉ်းစည်းကမ်းစံနှုန်းများနှင့် ကိုက်ညီကြောင်း သေချာစေရန် ကူညီပေးနိုင်ပြီး ၎င်းသည် မော်ဒယ်အား စိန်ခေါ်ခြင်း သို့မဟုတ် ပြောင်းလဲရန် အခွင့်အလမ်းကို ပေးပါသည်။ 

ပုံ- ဒေါက်တာ Matt Turek/DARPA

AI နှင့် XAI ကွာခြားချက်များ

အချို့သောသော့ချက်ကွဲလွဲမှုများသည် ရှင်းပြနိုင်သော AI မှ "ပုံမှန်" AI ကို ခွဲခြားနိုင်စေရန် ကူညီပေးသည်၊ သို့သော် အရေးအကြီးဆုံးမှာ XAI သည် ML လုပ်ငန်းစဉ်တွင် ဆုံးဖြတ်ချက်တစ်ခုစီတိုင်းကို ခြေရာခံနိုင်ပြီး ရှင်းပြနိုင်စေရန်အတွက် အထောက်အကူဖြစ်စေသော သီးခြားနည်းပညာများနှင့် နည်းလမ်းများကို အကောင်အထည်ဖော်ပါသည်။ နှိုင်းယှဉ်ကြည့်လျှင် ပုံမှန် AI သည် ML algorithm ကိုအသုံးပြု၍ ၎င်း၏ရလဒ်သို့ရောက်ရှိလေ့ရှိသော်လည်း algorithm သည် ရလဒ်ကိုမည်သို့ရောက်ရှိခဲ့သည်ကို အပြည့်အဝနားလည်ရန် မဖြစ်နိုင်ပေ။ ပုံမှန် AI ၏အခြေအနေတွင်၊ ထိန်းချုပ်မှု၊ တာဝန်ခံမှုနှင့် စာရင်းစစ်မှုတို့ကို ဆုံးရှုံးသွားစေပြီး တိကျမှုကို စစ်ဆေးရန် အလွန်ခက်ခဲသည်။ 

ရှင်းပြနိုင်သော AI ၏အကျိုးကျေးဇူးများ 

ရှင်းပြနိုင်သော AI ကိုအသုံးပြုလိုသည့် မည်သည့်အဖွဲ့အစည်းအတွက်မဆို အကျိုးကျေးဇူးများစွာရှိပါသည်။ 

  • ပိုမိုမြန်ဆန်သောရလဒ်များ - ရှင်းပြနိုင်သော AI သည် အဖွဲ့အစည်းများအား လုပ်ငန်းရလဒ်များကို အကောင်းဆုံးဖြစ်အောင် မော်ဒယ်များကို စနစ်တကျ စောင့်ကြည့်စီမံနိုင်စေပါသည်။ မော်ဒယ်စွမ်းဆောင်ရည်ကို စဉ်ဆက်မပြတ် အကဲဖြတ်ပြီး ပိုမိုကောင်းမွန်အောင် လုပ်ဆောင်နိုင်သည်
  • အန္တရာယ်များကို လျော့ပါးစေသည်- ရှင်းပြနိုင်သော AI လုပ်ငန်းစဉ်များကို ကျင့်သုံးခြင်းဖြင့်၊ သင်၏ AI မော်ဒယ်များသည် ရှင်းပြနိုင်သော၊ ပွင့်လင်းမြင်သာမှုရှိကြောင်း သေချာစေပါသည်။ လူကိုယ်တိုင်စစ်ဆေးခြင်း၏ အကျုံးဝင်မှုကို လျှော့ချနေစဉ်တွင် သင်သည် စည်းမျဉ်းစည်းကမ်း၊ လိုက်နာမှု၊ အန္တရာယ်များနှင့် အခြားလိုအပ်ချက်များကို စီမံခန့်ခွဲနိုင်သည်။ ဤအရာအားလုံးသည် မလိုလားအပ်သော ဘက်လိုက်မှုအန္တရာယ်ကိုလည်း လျော့ပါးစေပါသည်။ 
  • ယုံကြည်မှုတည်ဆောက်ပါ- ရှင်းပြနိုင်သော AI သည် ထုတ်လုပ်မှု AI တွင် ယုံကြည်မှုတည်ဆောက်ရန် ကူညီပေးသည်။ AI မော်ဒယ်များကို လျင်မြန်စွာ ထုတ်လုပ်နိုင်သည်၊ အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်မှုနှင့် ရှင်းပြနိုင်မှုကို သေချာစေနိုင်ပြီး မော်ဒယ်အကဲဖြတ်ခြင်းလုပ်ငန်းစဉ်ကို ရိုးရှင်းစေပြီး ပိုမိုပွင့်လင်းမြင်သာစေသည်။ 

ရှင်းပြနိုင်သော AI နည်းပညာများ

အဖွဲ့အစည်းအားလုံး ထည့်သွင်းစဉ်းစားသင့်သည့် XAI နည်းပညာအချို့ရှိပြီး ၎င်းတို့တွင် အဓိကနည်းလမ်း သုံးခုပါရှိသည်။ ခန့်မှန်းတိကျမှု, ခြေရာကောက်နှင့် ဆုံးဖြတ်ချက်နားလည်မှု

နည်းသုံးမျိုးအနက် ပထမ၊ ခန့်မှန်းတိကျမှုနေ့စဉ်လုပ်ငန်းဆောင်တာများတွင် AI ကို အောင်မြင်စွာအသုံးပြုနိုင်ရန် အရေးကြီးပါသည်။ သရုပ်ဖော်မှုများကို လုပ်ဆောင်နိုင်ပြီး XAI အထွက်အား ခန့်မှန်းခြေတိကျမှုကို ဆုံးဖြတ်ပေးသည့် လေ့ကျင့်ရေးဒေတာအစုံရှိ ရလဒ်များနှင့် နှိုင်းယှဉ်နိုင်သည်။ ၎င်းကိုအောင်မြင်ရန် ပိုမိုရေပန်းစားသောနည်းပညာများထဲမှတစ်ခုမှာ စက်သင်ယူမှု အယ်လဂိုရီသမ်ဖြင့် အမျိုးအစားခွဲခွဲခြားခြင်းကို ခန့်မှန်းရှင်းပြသည့် Local Interpretable Model-Agnostic Explanations (LIME) ဟုခေါ်သည်။ 

ဒုတိယနည်းလမ်းကတော့ ခြေရာကောက်ဆုံးဖြတ်ချက်များ မည်သို့ပြုလုပ်နိုင်သည်ကို ကန့်သတ်ခြင်းအပြင် စက်သင်ယူမှုစည်းမျဉ်းများနှင့် အင်္ဂါရပ်များအတွက် ပိုမိုကျဉ်းမြောင်းသော နယ်ပယ်တစ်ခုကို ထူထောင်ခြင်းဖြင့် အောင်မြင်သည်။ အသုံးအများဆုံး ခြေရာခံခြင်းနည်းပညာများထဲမှ တစ်ခုသည် DeepLIFT သို့မဟုတ် နက်ရှိုင်းစွာ သင်ယူရန် အရေးကြီးသော လုပ်ဆောင်ချက်များဖြစ်သည်။ DeepLIFT သည် activated neuron တစ်ခုစီကြား ခြေရာခံနိုင်သော ချိတ်ဆက်မှုကို သရုပ်ပြနေစဉ် နျူရွန်တစ်ခုစီ၏ အသက်ဝင်မှုကို ၎င်း၏ရည်ညွှန်း neuron နှင့် နှိုင်းယှဉ်သည်။ ၎င်းတို့ကြားတွင် မှီခိုမှုကိုလည်း ပြသသည်။ 

တတိယနှင့် နောက်ဆုံးနည်းလမ်းမှာ ဆုံးဖြတ်ချက်နားလည်မှုအခြားနည်းလမ်းနှစ်ခုနှင့် မတူဘဲ လူသားကို အဓိကထားလုပ်ဆောင်သည်။ ဆုံးဖြတ်ချက်နားလည်မှုတွင် AI မှ ဆုံးဖြတ်ချက်များ မည်သို့ချသည်ကို နားလည်နိုင်စေရန် အထူးသဖြင့် AI နှင့် လုပ်ဆောင်သည့်အဖွဲ့အား အသိပညာပေးခြင်း ပါဝင်သည်။ ဤနည်းလမ်းသည် စနစ်အပေါ် ယုံကြည်မှုတည်ဆောက်ရန် အရေးကြီးပါသည်။ 

ရှင်းပြနိုင်သော AI အခြေခံမူများ

XAI နှင့် ၎င်း၏မူများကို ပိုမိုနားလည်သဘောပေါက်စေရန် US Department of Commerce ၏ တစ်စိတ်တစ်ပိုင်းဖြစ်သည့် National Institute of Standards (NIST) သည် ရှင်းပြနိုင်သော AI အခြေခံမူလေးခုအတွက် အဓိပ္ပါယ်ဖွင့်ဆိုချက်များ ပေးဆောင်သည်- 

  1. AI စနစ်သည် ထွက်ပေါက်တစ်ခုစီအတွက် အထောက်အထား၊ ပံ့ပိုးမှု သို့မဟုတ် ကျိုးကြောင်းဆင်ခြင်မှုတို့ကို ပေးသင့်သည်။ 
  2. AI စနစ်သည် သုံးစွဲသူများ နားလည်နိုင်သော ရှင်းလင်းချက် ပေးသင့်သည်။ 
  3. ရှင်းလင်းချက်သည် ၎င်း၏အထွက်ကိုရောက်ရှိရန် စနစ်အသုံးပြုသည့် လုပ်ငန်းစဉ်ကို တိကျစွာ ရောင်ပြန်ဟပ်သင့်သည်။ 
  4. AI စနစ်သည် ၎င်းအတွက် ဒီဇိုင်းထုတ်ထားသည့် အခြေအနေများအောက်တွင်သာ လည်ပတ်သင့်ပြီး ရလဒ်အပေါ် လုံလောက်သောယုံကြည်မှု ကင်းမဲ့နေချိန်တွင် ၎င်းသည် အထွက်ကို မပေးသင့်ပါ။ 

ဤအခြေခံမူများကို ပိုမိုဖွဲ့စည်းနိုင်သည်- 

  • အဓိပ္ပါယ်ရှိသော အဓိပ္ပာယ်ပြည့်ဝမှုနိယာမကိုရရှိရန်၊ အသုံးပြုသူတစ်ဦးသည် ပေးထားသောရှင်းပြချက်ကို နားလည်သင့်သည်။ ၎င်းသည် AI algorithm ကို အသုံးပြုသူ အမျိုးအစား အမျိုးမျိုးဖြင့် အသုံးပြုသည့် အခြေအနေတွင်၊ ရှင်းပြချက်များစွာ ရှိနိုင်သည်ဟု ဆိုလိုနိုင်သည်။ ဥပမာအားဖြင့်၊ မောင်းသူမဲ့ကားကိစ္စတွင်၊ ရှင်းလင်းချက်တစ်ခုသည် လမ်းတစ်လျှောက်တွင်ရှိကောင်းရှိနိုင်သည်…” AI သည် လမ်းပေါ်ရှိ ပလတ်စတစ်အိတ်ကို ကျောက်တုံးအဖြစ် အမျိုးအစားခွဲကာ မထိမိစေရန် အရေးယူခဲ့သည်။” ဤဥပမာသည် ယာဉ်မောင်းအတွက် အလုပ်လုပ်မည်ဖြစ်သော်လည်း ပြဿနာကို ပြုပြင်ရန် AI developer တစ်ဦးအတွက် အလွန်အသုံးဝင်မည်မဟုတ်ပေ။ ထိုအခြေအနေတွင်၊ developer သည် အဘယ်ကြောင့် အမျိုးအစားခွဲခြားမှု မှားယွင်းရကြောင်း နားလည်ရပါမည်။ 
  • ရှင်းလင်းချက် တိကျမှု- အထွက်တိကျမှုနှင့် မတူဘဲ၊ ရှင်းလင်းချက်တိကျမှုတွင် AI algorithm သည် ၎င်း၏ output သို့ရောက်ရှိပုံကို တိကျစွာရှင်းပြပေးပါသည်။ ဥပမာအားဖြင့်၊ ချေးငွေအတည်ပြုချက်ဆိုင်ရာ အယ်လဂိုရီသမ်တစ်ခုသည် လျှောက်လွှာ၏၀င်ငွေအပေါ်အခြေခံ၍ ဆုံးဖြတ်ချက်တစ်ခုအား ရှင်းပြပါက၊ ၎င်းသည် လျှောက်ထားသူ၏နေထိုင်ရာအရပ်အပေါ် အခြေခံထားခြင်းဖြစ်ပြီး၊ ရှင်းလင်းချက်မှာ မမှန်ပါ။ 
  • အသိပညာကန့်သတ်ချက်များ- AI ၏ အသိပညာ ကန့်သတ်ချက်များကို နည်းလမ်းနှစ်မျိုးဖြင့် ရောက်ရှိနိုင်ပြီး ၎င်းတွင် ထည့်သွင်းမှုသည် စနစ်၏ ကျွမ်းကျင်မှုပြင်ပတွင် ပါဝင်ပါသည်။ ဥပမာအားဖြင့်၊ ငှက်မျိုးစိတ်များကို အမျိုးအစားခွဲခြားရန် စနစ်တစ်ခုတည်ဆောက်ထားပြီး ၎င်းကို ပန်းသီးပုံတစ်ပုံပေးမည်ဆိုပါက ထည့်သွင်းမှုသည် ငှက်မဟုတ်ကြောင်း ရှင်းပြနိုင်သင့်သည်။ စနစ်က မှုန်ဝါးသောရုပ်ပုံလွှာကို ပေးမည်ဆိုပါက၊ ၎င်းသည် ပုံရှိငှက်ကို ခွဲခြား၍မရကြောင်း သို့မဟုတ် ၎င်း၏ ခွဲခြားသတ်မှတ်ခြင်းမှာ အလွန်ယုံကြည်မှုနည်းပါးကြောင်း အစီရင်ခံနိုင်မည်ဖြစ်သည်။ 

ရှင်းပြနိုင်သော AI တွင် ဒေတာ၏အခန်းကဏ္ဍ

ရှင်းပြနိုင်သော AI ၏ အရေးကြီးဆုံး အစိတ်အပိုင်းတစ်ခုမှာ ဒေတာဖြစ်သည်။ 

အဆိုအရ Googleဒေတာနှင့် ရှင်းပြနိုင်သော AI နှင့် ပတ်သက်၍ "AI စနစ်သည် အရင်းခံ လေ့ကျင့်ရေးဒေတာနှင့် လေ့ကျင့်ရေးလုပ်ငန်းစဉ်အပြင် ရလဒ် AI စံနမူနာဖြင့် AI စနစ်တစ်ခုကို အကောင်းဆုံးနားလည်ပါသည်။" ဤနားလည်မှုသည် လေ့ကျင့်သင်ကြားထားသော AI မော်ဒယ်ကို လေ့ကျင့်ရန် အသုံးပြုသည့် ဒေတာအတွဲအတိအကျနှင့် မြေပုံဆွဲနိုင်မှုအပြင် ဒေတာကို အနီးကပ်စစ်ဆေးနိုင်မှုအပေါ် မူတည်ပါသည်။ 

မော်ဒယ်တစ်ခု၏ ရှင်းပြနိုင်စွမ်းကို မြှင့်တင်ရန်၊ လေ့ကျင့်ရေးဒေတာကို အာရုံစိုက်ရန် အရေးကြီးသည်။ အဖွဲ့များသည် အယ်လဂိုရီသမ်တစ်ခုကို လေ့ကျင့်ရန်အသုံးပြုသည့် ဒေတာ၏ဇာစ်မြစ်၊ ၎င်း၏ရရှိမှုနှင့်ပတ်၀န်းကျင်ရှိ တရားဥပဒေနှင့်ကျင့်ဝတ်များ၊ ဒေတာတွင် ဖြစ်နိုင်ခြေရှိသော ဘက်လိုက်မှုမှန်သမျှနှင့် ဘက်လိုက်မှုမှန်သမျှကို လျော့ပါးစေရန် လုပ်ဆောင်နိုင်သည်များကို ဆုံးဖြတ်သင့်သည်။ 

ဒေတာနှင့် XAI ၏နောက်ထပ်အရေးကြီးသောအချက်မှာ စနစ်နှင့်မသက်ဆိုင်သောဒေတာကို ဖယ်ထုတ်သင့်သည်။ ၎င်းကိုအောင်မြင်ရန်၊ မသက်ဆိုင်သောဒေတာများကို လေ့ကျင့်ရေးအစု သို့မဟုတ် ထည့်သွင်းဒေတာတွင် မပါဝင်ရပါ။ 

အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်မှုနှင့် တာဝန်ခံမှုရရှိရန် Google သည် အလေ့အကျင့်အစုံကို အကြံပြုထားသည်- 

  • အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်မှုကိုလိုက်စားရန် သင်၏ရွေးချယ်မှုများကို စီစဉ်ပါ။
  • အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်မှုကို သုံးစွဲသူအတွေ့အကြုံ၏ အဓိကအစိတ်အပိုင်းတစ်ခုအဖြစ် သဘောထားပါ။
  • အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်စေရန် မော်ဒယ်ကို ဒီဇိုင်းဆွဲပါ။
  • အဆုံးပန်းတိုင်နှင့် အဆုံးတာဝန်ကို ရောင်ပြန်ဟပ်ရန် မက်ထရစ်များကို ရွေးချယ်ပါ။
  • လေ့ကျင့်ထားတဲ့ ပုံစံကို နားလည်ပါ။
  • မော်ဒယ်အသုံးပြုသူများထံ ရှင်းလင်းချက်ပြောဆိုပါ။
  • AI စနစ်သည် ရည်ရွယ်ထားသည့်အတိုင်း အလုပ်လုပ်ကြောင်း သေချာစေရန် စမ်းသပ်မှုများစွာ ပြုလုပ်ပါ။ 

ဤအကြံပြုထားသော အလေ့အကျင့်များကို လိုက်နာခြင်းဖြင့် သင့်အဖွဲ့အစည်းသည် ယနေ့ခေတ်ပတ်ဝန်းကျင်ရှိ မည်သည့် AI မောင်းနှင်သည့်အဖွဲ့အစည်းအတွက်မဆို သော့ချက်ဖြစ်သည့် ရှင်းပြနိုင်သော AI ကို ရရှိကြောင်း သေချာစေနိုင်ပါသည်။ 

 

Alex McFarland သည် AI ဂျာနယ်လစ်တစ်ဦးဖြစ်ပြီး ဉာဏ်ရည်တုဆိုင်ရာ နောက်ဆုံးပေါ်တိုးတက်မှုများကို ရှာဖွေနေသော စာရေးဆရာဖြစ်သည်။ သူသည် ကမ္ဘာတစ်ဝှမ်းရှိ AI startup များနှင့် ထုတ်ဝေမှုများ အများအပြားနှင့် ပူးပေါင်းဆောင်ရွက်ခဲ့သည်။