ဆောင်းပါးတို Human Bias သည် AI-Enabled ဖြေရှင်းချက်များအား ပျက်ပြားစေသည် - Unite.AI
ကြှနျုပျတို့နှငျ့အတူချိတ်ဆက်ပါ

အတွေးခေါင်းဆောင်များ

Human Bias သည် AI-Enabled ဖြေရှင်းချက်များအား မည်ကဲ့သို့ ပျက်ပြားစေသနည်း။

mm

Published

 on

ပြီးခဲ့သည့်စက်တင်ဘာလတွင် OpenAI ၏ CEO ဖြစ်သူ Elon Musk၊ Mark Zuckerberg နှင့် Sam Altman တို့ကဲ့သို့သော ကမ္ဘာ့ခေါင်းဆောင်များ၊ ဝါရှင်တန်ဒီစီတွင် စုရုံးခဲ့သည်။ ဆွေးနွေးလိုသည့် ရည်ရွယ်ချက်ဖြင့် တဖက်တွင် အစိုးရနှင့် ပုဂ္ဂလိက ကဏ္ဍများသည် ဤနည်းပညာကို ပိုမိုကောင်းမွန်အောင် အသုံးချရန် မည်ကဲ့သို့ အတူတကွ လုပ်ဆောင်နိုင်သနည်း၊ တစ်ဖက်တွင်မူ စည်းမျဥ်းစည်းကမ်းကို ကိုင်တွယ်ဖြေရှင်းရန်၊ စကားဝိုင်းတွင် ရှေ့တန်းမှ ကျန်ရစ်ခဲ့သည့် ပြဿနာ၊ AI ပတ်ဝန်းကျင်။

စကားဝိုင်းနှစ်ခုစလုံးသည် တူညီသောနေရာသို့ ဦးတည်သွားလေ့ရှိသည်။ AI သည် အကျင့်စာရိတ္တဆိုင်ရာ မေးခွန်းထုတ်ခံရသော အခြားလူသားတစ်ဦးကဲ့သို့ AI ကို အကဲဖြတ်ကာ AI ကို ပိုမိုကျင့်ဝတ်သိက္ခာရှိအောင် လုပ်နိုင်မလားအပေါ် အလေးထားမှု ကြီးထွားလာပါသည်။ သို့သော် ကျင့်ဝတ်ဆိုင်ရာ AI က ဘာကိုဆိုလိုသနည်း။ DeepMind သည် AI ကိုအာရုံစိုက်သည့် Google ပိုင်သုတေသနဓာတ်ခွဲခန်း၊ မကြာသေးမီက လေ့လာမှုတစ်ခု ထုတ်ပြန်ခဲ့သည်။ လူမှုရေးနှင့်ကျင့်ဝတ်ဆိုင်ရာအန္တရာယ်များအပါအဝင် AI ၏အန္တရာယ်များကိုအကဲဖြတ်ရန်သုံးဆင့်ဖွဲ့စည်းပုံကိုအဆိုပြုခဲ့သည်။ ဤမူဘောင်တွင် စွမ်းရည်၊ လူသားအချင်းချင်း အပြန်အလှန် အကျိုးပြုမှုနှင့် စနစ်ကျသော အကျိုးသက်ရောက်မှုများ ပါ၀င်ပြီး AI စနစ်သည် လုံခြုံခြင်းရှိမရှိ ဆုံးဖြတ်ရန် အကြောင်းအရာသည် အဓိကကျကြောင်း ကောက်ချက်ချပါသည်။

မီးပျက်သွားသော ဤစနစ်များထဲမှတစ်ခုမှာ ChatGPT၊ နိုင်ငံပေါင်း 15 နိုင်ငံက တားမြစ်ထားပါတယ်။တားမြစ်ချက်အချို့ကို ပြောင်းပြန်လှန်လိုက်လျှင်ပင်။ အတူ သုံးစွဲသူသန်း ၃၀ ကျော်ChatGPT သည် အအောင်မြင်ဆုံး LLM များထဲမှ တစ်ခုဖြစ်ပြီး ၎င်းကို ဘက်လိုက်မှုဟု မကြာခဏ စွပ်စွဲခံရသည်။ DeepMind ၏ လေ့လာမှုအား ထည့်သွင်းစဉ်းစားကာ ဤနေရာတွင် ဆက်စပ်အကြောင်းအရာကို ထည့်သွင်းကြပါစို့။ ဤအခြေအနေတွင် ဘက်လိုက်မှုသည် ChatGPT ကဲ့သို့သော မော်ဒယ်များမှ ထုတ်ပေးသည့် စာသားတွင် တရားမျှတမှုမရှိသော၊ မလိုမုန်းထားထားသော သို့မဟုတ် ကွဲလွဲနေသော အမြင်များ ရှိနေခြင်းကို ဆိုလိုသည်။ လူမျိုးရေးဘက်လိုက်မှု၊ ကျားမရေးရာဘက်လိုက်မှု၊ နိုင်ငံရေးဘက်လိုက်မှု၊ နှင့် အခြားအရာများစွာဖြင့် ဤအရာသည် နည်းလမ်းအမျိုးမျိုးဖြင့် ဖြစ်ပွားနိုင်သည်။

ဤဘက်လိုက်မှုများသည် နောက်ဆုံးတွင် AI ကိုယ်တိုင်အတွက် အန္တရာယ်ဖြစ်စေနိုင်ပြီး၊ ကျွန်ုပ်တို့သည် ဤနည်းပညာ၏ အလားအလာကို အပြည့်အဝအသုံးချနိုင်သည့် မသာမယာများကို အဟန့်အတားဖြစ်စေနိုင်သည်။ မကြာမှီ စတန်းဖို့ဒ်တက္ကသိုလ်မှသုတေသန ChatGPT ကဲ့သို့သော LLM များသည် ယုံကြည်စိတ်ချရသော၊ ဘက်မလိုက်ဘဲ၊ တိကျသောတုံ့ပြန်မှုများပေးစွမ်းနိုင်မှုတွင် ကျဆင်းသွားသည့်လက္ခဏာများပြသနေကြောင်း အတည်ပြုထားပြီး၊ ၎င်းသည် နောက်ဆုံးတွင် ကျွန်ုပ်တို့၏ AI ကို ထိရောက်စွာအသုံးပြုခြင်းအတွက် လမ်းပိတ်သွားကြောင်း အတည်ပြုထားသည်။

ဤပြဿနာ၏ အဓိကအချက်မှာ လူသားတို့၏ ဘက်လိုက်မှုများအား AI သို့ ဘာသာပြန်ဆိုခြင်းမှာ မော်ဒယ်များကို တီထွင်ရန်အတွက် အသုံးပြုသည့် အချက်အလက်များတွင် နက်နက်ရှိုင်းရှိုင်း အမြစ်တွယ်နေသောကြောင့် ဖြစ်သည်။ ဒါပေမယ့် ဒါက ထင်တာထက် ပိုလေးနက်တဲ့ ကိစ္စပါ။

ဘက်လိုက်မှု၏အကြောင်းရင်းများ

ဤဘက်လိုက်မှု၏ ပထမအကြောင်းရင်းကို ဖော်ထုတ်ရန် လွယ်ကူသည်။ မော်ဒယ်မှ သင်ယူသည့် ဒေတာသည် မကြာခဏ စံနမူနာပုံစံများ သို့မဟုတ် ပြည့်စုံသည်။ ထိုဒေတာကို ပထမနေရာတွင် ပုံသွင်းရန် အထောက်အကူဖြစ်စေသော နဂိုရှိပြီးသား မလိုမုန်းထားမှုများထို့ကြောင့် AI သည် ၎င်းသည် မည်သို့လုပ်ဆောင်ရမည်ကို သိရှိသောကြောင့် အဆိုပါ ဘက်လိုက်မှုများ ဆက်လက်တည်မြဲနေခြင်းကို မရည်ရွယ်ဘဲ အဆုံးသတ်လိုက်ခြင်းဖြစ်သည်။

သို့သော်၊ ဒုတိယအကြောင်းရင်းမှာ ပိုမိုရှုပ်ထွေးပြီး တန်ပြန်သဘောဆောင်သည့်အချက်ဖြစ်ပြီး AI ကို ပိုမိုကျင့်ဝတ်နှင့်ဘေးကင်းစေရန် ကြိုးပမ်းမှုအချို့အပေါ်တွင် အခက်တွေ့စေပါသည်။ AI သည် မသိစိတ်တွင် အန္တရာယ်ဖြစ်စေနိုင်သည့် သိသာထင်ရှားသော သာဓကအချို့ရှိပါသည်။ ဥပမာအားဖြင့်၊ တစ်စုံတစ်ယောက်က AI ကို "ငါဘယ်လိုဗုံးလုပ်ရမလဲ" လို့မေးရင်၊ မော်ဒယ်သည် အဖြေပေးသည်၊ ၎င်းသည် ထိခိုက်မှုကို ဖြစ်ပေါ်စေသည်။ နောက်ပြန်လှည့်တာက AI ကို ကန့်သတ်လိုက်တဲ့အခါ- အကြောင်းအရင်းက တရားမျှတတယ်ဆိုရင်တောင် သင်ယူမှုကနေ တားဆီးနေတာပါပဲ။ လူတို့သတ်မှတ်ထားသော ကန့်သတ်ချက်များသည် AI ၏ ကျယ်ပြန့်သောအချက်အလက်များမှ သင်ယူနိုင်စွမ်းကို ကန့်သတ်ထားပြီး ၎င်းသည် အန္တရာယ်မရှိသောအခြေအနေများတွင် အသုံးဝင်သောအချက်အလက်များကို ပေးဆောင်ခြင်းမှ နောက်ထပ်တားဆီးပေးသည်။

ထို့အပြင်၊ ဤကန့်သတ်ချက်များအများအပြားသည် လူသားများမှအစပြုသောကြောင့်လည်း ဘက်လိုက်ကြသည်ကို သတိပြုကြပါစို့။ ဒီတော့ "ငါဘယ်လိုဗုံးလုပ်ရမှာလဲ" ဆိုတာကို အားလုံးသဘောတူနိုင်ကြပါတယ်။ သေစေနိုင်တဲ့ ရလဒ်ကို ဖြစ်ပေါ်စေနိုင်တယ်၊ ထိလွယ်ရှလွယ် ယူဆနိုင်တဲ့ တခြားမေးခွန်းတွေက ပိုပုဂ္ဂလဓိဋ္ဌာန်ဆန်တယ်။ ထို့ကြောင့်၊ ကျွန်ုပ်တို့သည် ထိုဒေါင်လိုက်များပေါ်တွင် AI ဖွံ့ဖြိုးတိုးတက်မှုကို ကန့်သတ်ထားပါက၊ ကျွန်ုပ်တို့သည် တိုးတက်မှုကို ကန့်သတ်ထားပြီး LLM မော်ဒယ်များနှင့် ပတ်သက်သည့် စည်းမျဉ်းများကို ချမှတ်သူများမှ လက်ခံနိုင်သည်ဟု ယူဆသော ရည်ရွယ်ချက်များအတွက်သာ AI ကို အသုံးပြုခြင်းကို လှုံ့ဆော်ပေးပါသည်။

အကျိုးဆက်များကို ကြိုတင်ခန့်မှန်းနိုင်စွမ်းမရှိပါ။

LLM များတွင် ကန့်သတ်ချက်များ မိတ်ဆက်ခြင်း၏ အကျိုးဆက်များကို ကျွန်ုပ်တို့ လုံး၀နားမလည်ပါ။ ထို့ကြောင့်၊ ကျွန်ုပ်တို့သည် ကျွန်ုပ်တို့သဘောပေါက်ထားသည်ထက် algorithms များကို ပို၍ပျက်စီးစေနိုင်သည်။ GPT ကဲ့သို့သော မော်ဒယ်များတွင် ပါ၀င်သည့် များပြားလှသော ကန့်သတ်ချက်များကြောင့်၊ ၎င်းသည် ယခုကျွန်ုပ်တို့ရှိ ကိရိယာများဖြင့် အကျိုးသက်ရောက်မှုကို ခန့်မှန်းရန် မဖြစ်နိုင်ဘဲ၊ ကျွန်ုပ်၏ ရှုထောင့်မှကြည့်လျှင် သက်ရောက်မှုထက် အကျိုးသက်ရောက်မှုကို နားလည်ရန် အချိန်ပိုယူရမည်ဖြစ်ပါသည်။ neural network ကို ကိုယ်တိုင်လေ့ကျင့်ဖို့ အချိန်ယူရပါတယ်။

ထို့ကြောင့်၊ ဤကန့်သတ်ချက်များကို ထားခြင်းဖြင့်၊ ကျွန်ုပ်တို့သည် မမျှော်လင့်ထားသော အပြုအမူများ သို့မဟုတ် ဘက်လိုက်မှုများ ဖြစ်ပေါ်လာစေရန် မော်ဒယ်ကို မရည်ရွယ်ဘဲ ဦးဆောင်နိုင်မည်ဖြစ်သည်။ ဒါကလည်း AI မော်ဒယ်တွေဟာ မကြာခဏဆိုသလို multi-parameter ရှုပ်ထွေးတဲ့ စနစ်တွေဖြစ်တာကြောင့်၊ ဆိုလိုတာကတော့ parameter တစ်ခုကို ပြောင်းလဲလိုက်ရင် ဥပမာ၊ ကန့်သတ်ချက်ကို မိတ်ဆက်ပေးခြင်းအားဖြင့်၊ ကျွန်တော်တို့ဟာ ခန့်မှန်းလို့မရတဲ့ နည်းလမ်းတွေနဲ့ model တစ်ခုလုံးကို reverberate ဖြစ်စေတဲ့ ripple effect ကို ဖြစ်စေပါတယ်။

AI ၏ "ကျင့်ဝတ်" ကို အကဲဖြတ်ရန် ခက်ခဲခြင်း။

AI သည် တိကျသောရည်ရွယ်ချက်ဖြင့် လုပ်ဆောင်နေသူတစ်ဦးမဟုတ်သောကြောင့် AI သည် ကျင့်ဝတ်ရှိမရှိကို အကဲဖြတ်ရန် လက်တွေ့တွင် မဖြစ်နိုင်ပါ။ AI သည် ကြီးမားသောဘာသာစကားပုံစံတစ်ခုဖြစ်ပြီး၊ သဘာဝအားဖြင့်၊ ကျင့်ဝတ်အရ အနည်းနှင့်အများမဖြစ်နိုင်ပါ။ DeepMind ၏လေ့လာမှုကထုတ်ဖော်ပြသခဲ့သည့်အတိုင်း၊ အရေးကြီးသည်မှာ ၎င်းကိုအသုံးပြုသည့်အကြောင်းအရာဖြစ်ပြီး၊ ၎င်းသည် AI ကိုယ်တိုင်မဟုတ်ဘဲ AI နောက်ကွယ်ရှိလူသား၏ကျင့်ဝတ်များကိုတိုင်းတာသည်။ AI ကို ကိုယ်ကျင့်တရား သံလိုက်အိမ်မြှောင်ရှိသကဲ့သို့ ကျွန်ုပ်တို့သည် AI ကို အကဲဖြတ်နိုင်သည်ဟု ယုံကြည်ခြင်းသည် ထင်ယောင်ထင်မှားဖြစ်စေသည်။

အမွှမ်းတင်ခံရနိုင်သည့် အလားအလာရှိသော ဖြေရှင်းချက်တစ်ခုမှာ AI သည် ကျင့်ဝတ်ဆိုင်ရာ ဆုံးဖြတ်ချက်များချရာတွင် ကူညီပေးနိုင်သည့် မော်ဒယ်တစ်ခုဖြစ်သည်။ သို့သော် လက်တွေ့တွင်မူ ဤသင်္ချာကျင့်ဝတ်ပုံစံသည် မည်သို့အလုပ်လုပ်နိုင်သည်ကို ကျွန်ုပ်တို့ မသိနိုင်ပါ။ အဲဒါကို နားမလည်ရင် ဘယ်လိုတည်ဆောက်နိုင်မလဲ။ လူ့ကျင့်ဝတ်တွင် လူ၏ပုဂ္ဂလဓိဋ္ဌာန်များ အများအပြားရှိသဖြင့် ၎င်းကို အရေအတွက်သတ်မှတ်ခြင်းလုပ်ငန်းမှာ အလွန်ရှုပ်ထွေးစေသည်။

ဤပြဿနာကိုဖြေရှင်းဖို့ဘယ်လိုနေသလဲ?

အထက်ဖော်ပြပါအချက်များကို အခြေခံ၍ AI သည် ကျင့်ဝတ်သိက္ခာရှိမရှိကို အမှန်တကယ်ပြောနိုင်မည်မဟုတ်ပေ။ အကြောင်းမှာ၊ အဘယ်ကြောင့်ဆိုသော် သိက္ခာမဲ့သည်ဟု ယူဆသောယူဆချက်တိုင်းသည် ဒေတာတွင်ပါရှိသော လူသားတို့၏ ဘက်လိုက်မှုအမျိုးမျိုးနှင့် ၎င်းတို့၏အစီအစဉ်အတွက် လူသားများအသုံးပြုသည့် ကိရိယာတစ်ခုဖြစ်သောကြောင့် ဖြစ်သည်။ ထို့အပြင် AI algorithms များအပေါ် ကန့်သတ်ချက်များထားခြင်းဖြင့် ကျွန်ုပ်တို့လုပ်ဆောင်နိုင်သည့် သက်ရောက်မှုနှင့် အန္တရာယ်များကဲ့သို့သော သိပ္ပံနည်းကျမသိရသေးသော သိပ္ပံနည်းကျမသိရသေးသည့်အရာများစွာ ရှိပါသေးသည်။

ထို့ကြောင့် AI ၏ ဖွံ့ဖြိုးတိုးတက်မှုကို ကန့်သတ်ခြင်းသည် အလားအလာရှိသော ဖြေရှင်းချက်မဟုတ်ဟု ဆိုနိုင်ပါသည်။ ကျွန်တော်ဖော်ပြခဲ့သည့် လေ့လာမှုအချို့အရ ဤကန့်သတ်ချက်များသည် တစ်စိတ်တစ်ပိုင်းအားဖြင့် LLM များ ယိုယွင်းလာရခြင်း၏ အကြောင်းရင်းဖြစ်သည်။

ဒါကိုပြောပြီးရင် ငါတို့ဘာလုပ်နိုင်မလဲ။

ကျွန်တော့်အမြင်အရတော့ အဖြေက ပွင့်လင်းမြင်သာမှုရှိတယ်။ AI ၏ ဖွံ့ဖြိုးတိုးတက်မှုတွင် ပျံ့နှံ့နေသော open-source model ကို ပြန်လည်ရယူပါက၊ ကျွန်ုပ်တို့၏ ကျင့်ဝတ်ဆိုင်ရာ စိုးရိမ်ပူပန်မှုများကို သက်သာစေရန် တပ်ဆင်နိုင်သည့် ပိုမိုကောင်းမွန်သော LLM များကို တည်ဆောက်ရန် အတူတကွ လုပ်ဆောင်နိုင်မည်ဟု ယုံကြည်ပါသည်။ မဟုတ်ပါက၊ တံခါးပိတ်လုပ်ဆောင်နေသမျှကို လုံလောက်စွာစစ်ဆေးရန် အလွန်ခက်ခဲသည်။

ဒီကိစ္စနဲ့ ပတ်သက်လို့ ကောင်းမွန်တဲ့ အစပျိုးမှုတစ်ခုကတော့ အခြေခံမော်ဒယ် ပွင့်လင်းမြင်သာမှု အညွှန်းမကြာသေးမီက ထုတ်ဖော်ပြသခဲ့သည့် Stanford HAI (Human-Centered Artificial Intelligence) သည် လူအသုံးအများဆုံး AI မော်ဒယ်လ်ဆယ်ခု၏ developer များသည် ၎င်းတို့၏အလုပ်နှင့် ၎င်းတို့၏စနစ်များအသုံးပြုပုံနှင့်ပတ်သက်သော လုံလောက်သောအချက်အလက်ကို ထုတ်ဖော်ပြသထားခြင်းရှိမရှိ အကဲဖြတ်သည်။ ၎င်းတွင် မိတ်ဖက်အဖွဲ့အစည်းများနှင့် ပြင်ပမှ ဆော့ဖ်ဝဲရေးသားသူများ၏ ထုတ်ဖော်မှုအပြင် ကိုယ်ရေးကိုယ်တာဒေတာကို အသုံးပြုသည့်နည်းလမ်းလည်း ပါဝင်သည်။ အကဲဖြတ်ထားသော မော်ဒယ်များထဲမှ မြင့်မားသောရမှတ်များ မရရှိခဲ့ကြောင်း၊ တကယ့်ပြဿနာကို မီးမောင်းထိုးပြနေသည်မှာ မှတ်သားစရာဖြစ်သည်။

တစ်နေ့တာ၏အဆုံးတွင်၊ AI သည် ကြီးမားသောဘာသာစကားမော်ဒယ်များထက်သာလွန်ပြီး ၎င်းတို့ကိုဖွင့်၍စမ်းသပ်နိုင်သည်ဟူသောအချက်သည် တိကျသောဦးတည်ချက်တစ်ခု၌ပဲ့ကိုင်မည့်အစား၊ သိပ္ပံပညာတိုင်းတွင် အထွတ်အထိပ်ရှာဖွေတွေ့ရှိမှုအသစ်များဖန်တီးနိုင်စေမည်ဖြစ်သည်။ လယ်ကွင်း။ သို့သော် ပွင့်လင်းမြင်သာမှု မရှိပါက၊ လူသားမျိုးနွယ်အတွက် အမှန်တကယ် အကျိုးရှိစေမည့် မော်ဒယ်များကို ဒီဇိုင်းဆွဲရန်နှင့် လုံလောက်စွာ မသုံးစွဲပါက အဆိုပါ မော်ဒယ်များ၏ ပျက်စီးဆုံးရှုံးမှု အတိုင်းအတာကို သိရှိရန် အလွန်ခက်ခဲမည်ဖြစ်သည်။

Ivan Nechaev သည် 60+ သဘောတူညီချက်များနှင့် 15+ အောင်မြင်သောထွက်ပေါက်များနှင့်အတူ Angel Investor နှင့် Mediatech အကြံပေးပုဂ္ဂိုလ်ဖြစ်သည်။ သူသည် အစောပိုင်းအဆင့်ရှိ MediaTech၊ AI၊ Telecom၊ BioTech၊ EdTech နှင့် SaaS startups များတွင် ရင်းနှီးမြှုပ်နှံပြီး ဘုတ်အဖွဲ့များတွင် တာဝန်ထမ်းဆောင်သည်။ Brainify.ai နှင့် TrueClick.ai. Nechaev သည် အမေရိကန်စက်မှုလုပ်ငန်းအဖွဲ့တွင် VP လည်းဖြစ်သည်။ လုပ်ငန်းများတွင် ဝင်ရောက်လုပ်ကိုင်ခြင်း။ နိုင်ငံပေါင်း 35+ တွင် $30B+ တန်ဘိုးနှင့် ရင်းနှီးမြှုပ်နှံမှုများနှင့်အတူ။