ဆောင်းပါးတို သုတေသီများက AI ကို လူတို့၏ ကိုယ်ရေးကိုယ်တာ လုံခြုံမှုကို ကာကွယ်ရန် AI ကို အသုံးပြုနိုင်ကြောင်း ယုံကြည်ကြသည် - Unite.AI
ကြှနျုပျတို့နှငျ့အတူချိတ်ဆက်ပါ

က်င့္၀တ္မ်ား

သုတေသီများက AI ကို လူတို့၏ ကိုယ်ရေးကိုယ်တာ လုံခြုံမှုကို ကာကွယ်ရန် ကူညီပေးနိုင်သည်ဟု ယုံကြည်ကြသည်။

mm
နောက်ဆုံးရေးသားချိန် on

သတင်းအချက်အလက်သိပ္ပံ ပါမောက္ခနှစ်ဦးသည် မကြာသေးမီက ထုတ်ပြန်ခဲ့သည်။ The Conversation တွင် အပိုင်းတစ်ပိုင်းAI သည် လူတို့၏ ကိုယ်ရေးကိုယ်တာ လုံခြုံမှုကို ထိန်းသိမ်းရန် ကူညီပေးနိုင်ပြီး ၎င်းတွင် ဖန်တီးထားသည့် ပြဿနာအချို့ကို ပြုပြင်ပေးနိုင်သည်။

Zhiyuan Chen နှင့် Aryya Gangopadhyay တို့သည် AI ၏ အခြားအသုံးပြုမှုများမှ ဖန်တီးထားသော လျှို့ဝှက်ရေးဆိုင်ရာ စိုးရိမ်ပူပန်မှုအချို့ကို ဆန့်ကျင်ကာ လူတို့၏ privacy ကိုကာကွယ်ရန် ဥာဏ်ရည်တုအယ်လ်ဂိုရီသမ်များကို အသုံးပြုနိုင်ကြောင်း ငြင်းခုံကြသည်။ Chen နှင့် Gangopadhyay တို့သည် အဆင်ပြေစေရန်အတွက် ကျွန်ုပ်တို့အသုံးပြုသည့် AI မောင်းနှင်ထားသော ထုတ်ကုန်အများအပြားသည် ဒေတာအများအပြားကို ရယူသုံးစွဲခြင်းမရှိဘဲ အလုပ်မဖြစ်နိုင်ကြောင်း အသိအမှတ်ပြုထားပြီး၊ ပထမတစ်ချက်တွင် privacy ကိုထိန်းသိမ်းရန်ကြိုးပမ်းမှုများနှင့် ကွဲလွဲနေပုံရသည်။ ထို့အပြင် AI သည် လုပ်ငန်းနယ်ပယ်နှင့် အသုံးချပလီကေးရှင်းများ ပိုမိုပျံ့နှံ့လာသည်နှင့်အမျှ ဒေတာများပိုမိုစုဆောင်းကာ ဒေတာဘေ့စ်များတွင် သိမ်းဆည်းခံရမည်ဖြစ်ပြီး၊ ထိုဒေတာဘေ့စ်များကို ချိုးဖောက်မှုများကို ဆွဲဆောင်နိုင်မည်ဖြစ်သည်။ သို့သော်လည်း Chen နှင့် Gangopadhyay တို့က AI ကို မှန်ကန်စွာအသုံးပြုသောအခါတွင် အဆိုပါပြဿနာများကို လျော့ပါးသက်သာစေနိုင်သည်ဟု ယုံကြည်ကြသည်။

Chen နှင့် Gangopadhyay တို့သည် AI နှင့် ဆက်စပ်သော ကိုယ်ရေးကိုယ်တာ အန္တရာယ်များသည် အနည်းဆုံး မတူညီသော အရင်းအမြစ်နှစ်ခုမှ လာကြောင်း ၎င်းတို့၏ ပို့စ်တွင် ရှင်းပြထားသည်။ ပထမရင်းမြစ်မှာ အာရုံကြောကွန်ရက်မော်ဒယ်များကို လေ့ကျင့်ရန် စုဆောင်းထားသော ကြီးမားသောဒေတာအတွဲများဖြစ်ပြီး ဒုတိယကိုယ်ရေးကိုယ်တာခြိမ်းခြောက်မှုမှာ မော်ဒယ်များကိုယ်တိုင်ဖြစ်သည်။ မော်ဒယ်များ၏ အမူအကျင့်များက ၎င်းတို့အား လေ့ကျင့်ရန် အသုံးပြုသည့် ဒေတာအကြောင်း အသေးစိတ်များကို ပေးဆောင်ခြင်းဖြင့် ဤမော်ဒယ်များမှ ဒေတာများ "ပေါက်ကြားနိုင်သည်" ဖြစ်နိုင်သည်။

နက်ရှိုင်းသော အာရုံကြောကွန်ရက်များသည် နျူရွန်အလွှာများစွာဖြင့် ဖွဲ့စည်းထားပြီး အလွှာတစ်ခုစီသည် ၎င်းတို့ပတ်ဝန်းကျင်ရှိ အလွှာများနှင့် ချိတ်ဆက်ထားသည်။ အာရုံကြောတစ်ဉီးစီနှင့် နျူရွန်များကြား ချိတ်ဆက်မှုများသည် လေ့ကျင့်ရေးဒေတာ၏ မတူညီသော bits များအတွက် ကုဒ်လုပ်ထားသည်။ မော်ဒယ်သည် လေ့ကျင့်ရေးဒေတာ၏ ပုံစံများကို မှတ်သားထားသကဲ့သို့ ကောင်းမွန်လွန်းနေပါက၊ မော်ဒယ်သည် အလွန်အကျွံမဖြစ်ပါက၊ လေ့ကျင့်ရေးဒေတာခြေရာခံများသည် ကွန်ရက်အတွင်းတွင်ရှိနေပြီး ဆိုးဆိုးရွားရွားလုပ်ဆောင်သူများသည် Cornell တက္ကသိုလ်ကဲ့သို့ လေ့ကျင့်ရေးဒေတာ၏သွင်ပြင်လက္ခဏာများကို ရှာဖွေဖော်ထုတ်နိုင်မည်ဖြစ်သည်။ သူတို့ရဲ့လေ့လာမှုတစ်ခုအတွင်းတွေ့ရှိခဲ့ပါတယ်။ Cornell မှ သုတေသီများသည် မျက်နှာမှတ်မိခြင်းဆိုင်ရာ အယ်လဂိုရီသမ်များကို တိုက်ခိုက်သူများသည် မည်သည့်ပုံများ နှင့် လူများကို မျက်နှာမှတ်သားမှုပုံစံကို လေ့ကျင့်ရန် အသုံးပြုကြသည်ကို ဖော်ပြရန် တိုက်ခိုက်သူများက အသုံးချနိုင်ကြောင်း တွေ့ရှိခဲ့သည်။ အပလီကေးရှင်းကိုလေ့ကျင့်ရန်အသုံးပြုသည့်မူရင်းပုံစံကိုတိုက်ခိုက်သူသည်တိုက်ခိုက်သူမှဝင်ရောက်ခွင့်မရှိသော်လည်း၊ တိုက်ခိုက်သူသည်ကွန်ရက်ကိုစုံစမ်းစစ်ဆေးနိုင်ပြီးမော်ဒယ်များကိုအသုံးပြုရုံဖြင့်လေ့ကျင့်ရေးဒေတာတွင်လူတစ်ဦးတစ်ယောက်ပါဝင်ခြင်းရှိမရှိဆုံးဖြတ်နိုင်သည်ကို Cornell သုတေသီများကရှာဖွေတွေ့ရှိခဲ့သည်။ အလွန်ဆင်တူသော အချက်အလက်များဖြင့် လေ့ကျင့်သင်ကြားခဲ့ခြင်း ဖြစ်သည်။

အချို့သော AI မော်ဒယ်များသည် ဒေတာချိုးဖောက်မှုများကို ကာကွယ်ရန်နှင့် လူအများ၏ကိုယ်ရေးကိုယ်တာလုံခြုံမှုကို သေချာစေရန် ကြိုးစားလျက်ရှိသည်။ လုံခြုံရေးနည်းလမ်းများကို ထိုးဖောက်ဝင်ရောက်ရန် ဟက်ကာများအသုံးပြုသည့် အမူအကျင့်ပုံစံများကို အသိအမှတ်ပြုခြင်းဖြင့် AI မော်ဒယ်များကို မကြာခဏဆိုသလို အသုံးပြုကြသည်။ သို့သော်၊ ဟက်ကာများသည် AI ၏ပုံစံကိုထောက်လှမ်းရန် အရူးလုပ်ရန် ၎င်းတို့၏အပြုအမူကို ပြောင်းလဲလေ့ရှိသည်။

AI လေ့ကျင့်ရေးနှင့် ဖွံ့ဖြိုးတိုးတက်ရေး နည်းလမ်းသစ်များသည် AI မော်ဒယ်များနှင့် အပလီကေးရှင်းများကို ဟက်ကာနည်းလမ်းများနှင့် လုံခြုံရေး ရှောင်လွှဲမှုနည်းဗျူဟာများတွင် ထိခိုက်မှုနည်းစေရန် ရည်ရွယ်သည်။ Adversarial learning သည် AI မော်ဒယ်များကို အန္တရာယ်ဖြစ်စေသော သို့မဟုတ် အန္တရာယ်ဖြစ်စေသော သွင်းအားစုများကို အတုယူရန် လေ့ကျင့်သင်ကြားပေးပြီး ထိုသို့လုပ်ဆောင်ခြင်းဖြင့် မော်ဒယ်ကို အမြတ်ထုတ်ရန်အတွက် ပိုမိုခိုင်မာစေသောကြောင့် “ရန်ဘက်ပြုသူများ” ဟု အမည်တွင်ပါသည်။ Chen နှင့် Gangopadhyay တို့၏ သုတေသနပြုချက်အရ သိရသည်။ ရှာဖွေတွေ့ရှိခဲ့သည် လူတွေရဲ့ ကိုယ်ရေးကိုယ်တာ အချက်အလက်တွေကို ခိုးယူဖို့ ဒီဇိုင်းထုတ်ထားတဲ့ Malware တိုက်ဖျက်တဲ့ နည်းလမ်းများ။ သုတေသီနှစ်ဦးက ၎င်းတို့တွေ့ရှိခဲ့သည့် malware များကို တွန်းလှန်ရာတွင် အထိရောက်ဆုံးနည်းလမ်းတစ်ခုမှာ မသေချာမရေရာမှုများကို မော်ဒယ်သို့ မိတ်ဆက်ခြင်းဖြစ်သည်ဟု ရှင်းပြခဲ့သည်။ ရည်ရွယ်ချက်မှာ မကောင်းတဲ့ သရုပ်ဆောင်များအတွက် မော်ဒယ်က ပေးထားသည့် ထည့်သွင်းမှုအပေါ် မည်သို့တုံ့ပြန်မည်ကို ကြိုတင်မှန်းဆရန် ပိုမိုခက်ခဲစေရန် ဖြစ်သည်။

ကိုယ်ရေးကိုယ်တာကာကွယ်ရန် AI ကို အသုံးပြုသည့် အခြားနည်းလမ်းများတွင် မော်ဒယ်ကို ဖန်တီးပြီး လေ့ကျင့်ထားသည့်အခါ ဒေတာထိတွေ့မှုကို လျှော့ချခြင်းအပြင် ကွန်ရက်၏ အားနည်းချက်များကို ရှာဖွေတွေ့ရှိရန် စုံစမ်းခြင်းလည်း ပါဝင်ပါသည်။ ဒေတာကိုယ်ရေးကိုယ်တာ ထိန်းသိမ်းခြင်းနှင့် ပတ်သက်လာလျှင် ဖက်ဒရယ်သင်ယူခြင်းသည် အရေးကြီးသောဒေတာ၏ လျှို့ဝှက်ရေးလုံခြုံမှုကို ကာကွယ်ပေးနိုင်သည်၊ အဘယ်ကြောင့်ဆိုသော် ၎င်းသည် လေ့ကျင့်ရေးဒေတာပါရှိသော ဒေသဆိုင်ရာစက်ပစ္စည်းများကို ဒေတာမချန်ထားဘဲ မော်ဒယ်တစ်ခုကို လေ့ကျင့်သင်ကြားခွင့်ပြုသောကြောင့်၊ သူလျှိုလုပ်ခြင်းမှ မော်ဒယ်၏ ကန့်သတ်ချက်များ။

အဆုံးစွန်အားဖြင့်၊ Chen နှင့် Gangopadhyay တို့သည် AI ပြန့်ပွားမှုသည် လူတို့၏ကိုယ်ရေးကိုယ်တာအတွက် ခြိမ်းခြောက်မှုအသစ်များဖန်တီးနေသော်လည်း AI သည် ဂရုတစိုက်နှင့် ထည့်သွင်းစဉ်းစားသည့်အခါ privacy ကိုကာကွယ်ရန်လည်း ကူညီပေးနိုင်ကြောင်း ငြင်းခုံကြသည်။