ဆောင်းပါးတို AI မော်ဒယ်များသည် ကျင့်ဝတ်မဲ့သော ဆုံးဖြတ်ချက်များချရန် လူများကို လွှမ်းမိုးနိုင်သည်ဟု သုတေသီများ ရှာဖွေတွေ့ရှိခဲ့သည် - Unite.AI
ကြှနျုပျတို့နှငျ့အတူချိတ်ဆက်ပါ

က်င့္၀တ္မ်ား

AI မော်ဒယ်များသည် ကျင့်ဝတ်မဲ့သော ဆုံးဖြတ်ချက်များချရန် လူများကို လွှမ်းမိုးနိုင်သည်ကို သုတေသီများက ရှာဖွေတွေ့ရှိခဲ့သည်။

mm
နောက်ဆုံးရေးသားချိန် on

မကြာသေးမီက သုတေသီအဖွဲ့တစ်ဖွဲ့ရှိသည်။ လူတွေကို အကျင့်ပျက်စေမယ့် AI ရဲ့ အလားအလာကို စုံစမ်းခဲ့ပါတယ်။ သိက္ခာမဲ့သော ဆုံးဖြတ်ချက်များချရန် ၎င်းတို့ကို သြဇာညောင်းစေသည်။ သုတေသီများသည် OpenAI ၏ GPT-2 မော်ဒယ်အပေါ် အခြေခံထားသော စနစ်များနှင့် အပြန်အလှန်တုံ့ပြန်မှုများသည် အကြံဉာဏ်၏ရင်းမြစ်မှာ AI စနစ်ဖြစ်သည်ကို သိရှိထားသော်လည်းပင် လူများအား သိက္ခာမဲ့သော ဆုံးဖြတ်ချက်များချရန် လူတို့အား သြဇာလွှမ်းမိုးနိုင်ပုံကို စူးစမ်းလေ့လာခဲ့သည်။

AI စနစ်များသည် အချိန်တိုင်းတွင် နေရာအနှံ့ ပိုမိုကျယ်ပြန့်လာပြီး ၎င်းတို့၏ သြဇာလွှမ်းမိုးမှုမှာ ပိုမိုကျယ်ပြန့်လာသည်။ AI စနစ်များသည် ရုပ်ရှင်များကို အကြံပြုခြင်းမှ အချစ်လက်တွဲဖော်များကို အကြံပြုခြင်းအထိ အရာအားလုံးအတွက် လူတို့၏ ဆုံးဖြတ်ချက်များအပေါ် လွှမ်းမိုးမှုရှိသည်။ AI သည် လူတို့၏ဘဝများအပေါ် မည်မျှလွှမ်းမိုးမှုရှိသည်ဆိုသော်၊ AI သည် လူများအား သိက္ခာမဲ့သောဆုံးဖြတ်ချက်များချရန်နှင့် ကိုယ်ကျင့်တရားဆိုင်ရာလမ်းညွှန်ချက်များကိုဖောက်ဖျက်ရန် AI သည် လူတို့အား မည်သို့သြဇာလွှမ်းမိုးနိုင်သည်ကို ထည့်သွင်းစဉ်းစားရန် အရေးကြီးပါသည်။ AI မော်ဒယ်များသည် အဆက်မပြတ် ပိုမိုခေတ်မီလာသောကြောင့် အထူးသဖြင့် မှန်ပါသည်။

လူမှုရေးသိပ္ပံပညာရှင်များနှင့် ဒေတာသိပ္ပံပညာရှင်များသည် အန္တရာယ်ရှိသောမဟုတ်မမှန်သောသတင်းများနှင့် သတင်းမှားများကိုဖြန့်ကျက်ရန် AI မော်ဒယ်များကို အသုံးပြုလာနိုင်သည်ဟူသော စိုးရိမ်မှုပိုလာကြသည်။ တစ် မကြာသေးမီစက္ကူ Middlebury Institute of International Studies' Centre on Terrorism, Extremism, and Counterterrorism (CTEC) မှ သုတေသီများက ထုတ်ဝေသော OpenAI ၏ GPT-3 မော်ဒယ်သည် လူများကို အစွန်းရောက်စေမည့် သြဇာကြီးသော စာသားများကို ထုတ်လုပ်ရန် အသုံးပြုနိုင်ပြီး ၎င်းတို့အား “အကြမ်းဖက် လက်ယာစွန်း အစွန်းရောက်များဆီသို့ တွန်းပို့သည် အယူဝါဒနှင့် အပြုအမူများ။”

Max Planck Institute၊ Amsterdam တက္ကသိုလ်၊ University of Cologne နှင့် Otto Beisheim School of Management တို့မှ သုတေသီအဖွဲ့တစ်ဖွဲ့မှ ပြုလုပ်သော လေ့လာမှုတစ်ခုသည် ကျင့်ဝတ်သိက္ခာမဲ့သည့်အချိန်တွင် AI သည် လူတို့၏ဆုံးဖြတ်ချက်များအပေါ် မည်မျှသြဇာလွှမ်းမိုးနိုင်သည်ကို ဆုံးဖြတ်ရန် ချမှတ်ထားသော လေ့လာမှုတစ်ခုဖြစ်သည်။ ရွေးချယ်မှုများ။ AI သည် လူတစ်ဦးအား မည်ကဲ့သို့ ဖောက်ပြန်စေနိုင်သည်ကို စူးစမ်းလေ့လာရန်အတွက် OpenAI ၏ GPT-2 မော်ဒယ်ကို အခြေခံထားသည့် စနစ်ကို အသုံးပြုခဲ့သည်။ VentureBeat ၏ အဆိုအရ သိရသည်။စာတမ်းရေးသားသူများသည် "မရိုးသားမှု-မြှင့်တင်ခြင်း" နှင့် "ရိုးသားမှုမြှင့်တင်ခြင်း" အကြံဉာဏ်များ ထုတ်ပေးရန်အတွက် GPT2-based မော်ဒယ်ကို လေ့ကျင့်သင်ကြားပေးခဲ့သည်။ ဒေတာကို မတူညီသောပါဝင်သူ 400 မှ ပံ့ပိုးကူညီမှုများအပေါ် လေ့ကျင့်သင်ကြားခဲ့ပြီး နောက်ပိုင်းတွင် သုတေသနအဖွဲ့သည် အကြံဉာဏ်ပေးသည့် AI မော်ဒယ်များနှင့် ပတ်သက်ရန် လူပေါင်း 1500 ကျော်ကို စုဆောင်းခဲ့သည်။

လေ့လာမှုတွင် ပါဝင်သူများသည် မော်ဒယ်ထံမှ အကြံဉာဏ်ရယူပြီးနောက် မရိုးသားသော သို့မဟုတ် ရိုးသားသောအပြုအမူကို ဖမ်းဆုပ်ရန် ဒီဇိုင်းထုတ်ထားသည့် အလုပ်တစ်ခုကို လုပ်ဆောင်ရန် တောင်းဆိုခဲ့သည်။ လေ့လာမှုတွင် ပါဝင်သူများသည် ပါတနာတစ်ဦးနှင့် အုပ်စုဖွဲ့ကာ အတွဲနှစ်တွဲတွင် အန်စာတုံးလှိမ့်သည့်ဂိမ်းကို ကစားခဲ့ကြသည်။ ပထမပါဝင်သူသည် အံစာတုံးကို လှိမ့်ကာ အံစာတုံး၏ ရလဒ်ကို အစီရင်ခံသည်။ ဒုတိယပါဝင်သူသည် ပထမပါဝင်သူ၏ သေတ္တာလိပ်၏ ရလဒ်ကို ရရှိပြီး ၎င်းတို့ကိုယ်တိုင် လှိမ့်လှိမ့်ခဲ့သည်။ ဒုတိယပါဝင်သူသည် အံစာတုံးကို သီးသန့်လိပ်ပြီး ၎င်းတို့၏ရလဒ်ကို အစီရင်ခံရန် တစ်ခုတည်းတွင်သာ တာဝန်ရှိပြီး သေလိပ်၏ရလဒ်ကို လိမ်ညာရန် အခွင့်အရေးပေးသည်။ ပါဝင်သူနှစ်ဦးစလုံးက လိုက်ဖက်ညီစွာ လှိမ့်သေဆုံးပါက ပါဝင်သူနှစ်ဦးကို ပေးဆောင်ရမည်ဖြစ်သည်။ ပါဝင်သူများသည် ၎င်းတို့၏ ကိုက်ညီသော လိပ်များ ပိုများပါက လည်း ပေးဆောင်ရမည်ဖြစ်ပါသည်။ အစီရင်ခံထားသောတန်ဖိုးများနှင့် မကိုက်ညီပါက ဘာသာရပ်များကို ပေးချေမည်မဟုတ်ပါ။

လေ့လာမှုတွင်ပါဝင်သူများသည် မတူညီသောအုပ်စုနှစ်စုမှတစ်ခုသို့ ကျပန်းသတ်မှတ်ပေးခဲ့သည်။ အုပ်စုတစ်စုက ရိုးသားမှုမြှင့်တင်တဲ့ အကြံဉာဏ်တွေကို ဖတ်ခွင့်ရပြီး အခြားအုပ်စုက မရိုးသားမှုမြှင့်တင်တဲ့ အကြံဉာဏ်တွေကို ဖတ်ရှုခွင့်ရခဲ့ပါတယ်။ အကြံဉာဏ်အတိုအထွာများကို လူသားများနှင့် AI နှစ်ခုလုံးက ရေးသားခဲ့ကြသည်။ သင်တန်းသားများအား အကြံဉာဏ်၏ရင်းမြစ်နှင့်ပတ်သက်သည့် အသိပညာအဆင့်အလိုက် ခွဲခြားသတ်မှတ်ပေးခဲ့ပါသည်။ အကြံဉာဏ်၏ရင်းမြစ်အကြောင်း ပေးထားသည့်ပါဝင်သူတစ်ဦးအား အကြောင်းကြားရန် အခွင့်အလမ်း 50-50 ရှိသောကြောင့် အကြံဉာဏ်၏ရင်းမြစ်မှာ AI သို့မဟုတ် လူသားဖြစ်သည်၊ ကျန်တစ်ဝက်ကို အုပ်စုတစ်ခုစီမှ ပါဝင်သူတစ်ဝက်က သိထားကြသည်။ အမှောင်ထဲမှာ။ သို့သော် ဒုတိယလူအုပ်စုသည် အကြံဉာဏ်၏ရင်းမြစ်ကို မှန်ကန်စွာ ခန့်မှန်းရန်အတွက် ဘောနပ်စ်လစာကို ရယူနိုင်ခဲ့သည်။

AI မှ ထုတ်ပေးသော အကြံဉာဏ်သည် လူတစ်ဦး၏ နှစ်သက်ရာများနှင့် ကိုက်ညီပါက AI မှ ထုတ်ပေးသည့် အကြံဉာဏ်ကို သိရှိသည့်တိုင် အကြံဉာဏ်ကို လိုက်နာမည်ဖြစ်ကြောင်း သုတေသနပြုချက်အရ သိရသည်။ သုတေသီများ၏အဆိုအရ၊ ဖော်ပြထားသောနှစ်သက်မှုများနှင့် အမှန်တကယ်အပြုအမူများကြားတွင် ကွဲလွဲမှုများရှိလေ့ရှိပြီး algorithms သည် လူ့အပြုအမူများအပေါ် မည်သို့လွှမ်းမိုးနိုင်သည်ကို ထည့်သွင်းစဉ်းစားရန် အရေးကြီးပါသည်။

AI မော်ဒယ်ကို ကျင့်ဝတ်သိက္ခာရှိရှိ အသုံးချနည်းကို စဉ်းစားသောအခါတွင် AI သည် လူတစ်ဦး၏ လုပ်ဆောင်ချက်များအပေါ် မည်ကဲ့သို့ လွှမ်းမိုးနိုင်သည်ကို စမ်းသပ်ရန် လိုအပ်ကြောင်း သုတေသနအဖွဲ့မှ ရှင်းပြခဲ့သည်။ ထို့အပြင်၊ AI ကျင့်ဝတ်ပညာရှင်များနှင့် သုတေသီများသည် အခြားသူများကို ဖောက်ပြန်ပျက်စီးစေရန် AI ကို မကောင်းသောသရုပ်ဆောင်များက အသုံးပြုနိုင်သည့် ဖြစ်နိုင်ခြေအတွက် ကြိုတင်ပြင်ဆင်ထားသင့်ကြောင်း ၎င်းတို့က သတိပေးထားသည်။ သုတေသီအဖွဲ့မှရေးသားခဲ့သည်

“AI က လူတွေကို ပိုပြီး ကျင့်ဝတ်သိက္ခာရှိရှိ လုပ်ဆောင်ဖို့ စည်းရုံးနိုင်ရင် ကောင်းမွန်တဲ့ တွန်းအားတစ်ခု ဖြစ်လာနိုင်ပါတယ်။ သို့သော် ကျွန်ုပ်တို့၏ရလဒ်များက AI အကြံဉာဏ်များသည် ရိုးသားမှုကို တိုးမြင့်ရန်ပျက်ကွက်ကြောင်း ဖော်ပြသည်။ AI အကြံပေးများသည် မရိုးသားမှု၏ ကိုယ်ကျင့်တရားဆိုင်ရာ အပြစ်တင်ခြင်းကို ရှောင်လွှဲနိုင်သည့် (အချို့သော) ကိုယ်ကျင့်တရားဆိုင်ရာ အပြစ်တင်ခြင်းကို ကင်းဆိတ်စေနိုင်သည်။ ထို့အပြင် ... အကြံဉာဏ်ရယူခြင်း၏အခြေအနေတွင်၊ algorithmic ရှိနေခြင်းနှင့်ပတ်သက်၍ ပွင့်လင်းမြင်သာမှုသည် ၎င်း၏ဖြစ်နိုင်ချေရှိသော အန္တရာယ်များကို သက်သာစေရန် မလုံလောက်ပါ။"

ဘလော့ဂါနှင့် ပရိုဂရမ်မာများအတွက် အထူးပြုပါ။ စက်သင်ယူ နှင့် နက်ရှိုင်းသောသင်ယူခြင်း အကြောင်းအရာများ လူမှုဆက်ဆံရေးကောင်းမွန်ရန်အတွက် AI ၏စွမ်းအားကို အခြားသူများအား ကူညီပေးနိုင်ရန် Daniel က မျှော်လင့်ထားသည်။