Connect with us

рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХ рдПрдЖрдИ рдЧреЛрдкрдиреАрдп рдбреЗрдЯрд╛ рдХреЛ рдЕрдзрд┐рдХ рдЖрд╕рд╛рдиреА рд╕реЗ рдЖрддреНрдорд╕рдорд░реНрдкрдг рдХрд░ рд╕рдХрддрд╛ рд╣реИ

рд╕рд╛рдЗрдмрд░ рд╕реБрд░рдХреНрд╖рд╛

рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХ рдПрдЖрдИ рдЧреЛрдкрдиреАрдп рдбреЗрдЯрд╛ рдХреЛ рдЕрдзрд┐рдХ рдЖрд╕рд╛рдиреА рд╕реЗ рдЖрддреНрдорд╕рдорд░реНрдкрдг рдХрд░ рд╕рдХрддрд╛ рд╣реИ

mm

सिंगापुर के राष्ट्रीय विश्वविद्यालय के शोधकर्ताओं ने निष्कर्ष निकाला है कि एआई जितना अधिक व्याख्यात्मक होता जाएगा, उतना ही यह मशीन लर्निंग सिस्टम में महत्वपूर्ण गोपनीयता सुविधाओं को दरकिनार करने में आसान हो जाएगा। उन्होंने यह भी पाया कि जब एक मॉडल व्याख्यात्मक नहीं होता है, तो भी समान मॉडलों की व्याख्याओं का उपयोग गैर-व्याख्यात्मक मॉडल में संवेदनशील डेटा को ‘डिकोड’ करने के लिए किया जा सकता है।

शोध शोध, जिसका शीर्षक मॉडल इनवर्जन हमलों के लिए व्याख्याओं का शोषण है, व्याख्यात्मक एआई (एक्सएआई) को एक पूर्वापेक्ष के रूप में चित्रित करने वाली नई वैश्विक पहलों के जोखिमों को उजागर करता है, जिसमें यूरोपीय संघ के ड्राफ्ट एआई नियम शामिल हैं, जो समाज में मशीन लर्निंग के अंतिम सामान्यीकरण के लिए एक्सएआई को एक पूर्वापेक्ष के रूप में चित्रित करते हैं।

рд╢реЛрдз рдореЗрдВ, рд╡рд╛рд╕реНрддрд╡рд┐рдХ рдкрд╣рдЪрд╛рди рдХреЛ рдХрдерд┐рдд рддреМрд░ рдкрд░ рдЧреБрдордирд╛рдо рдбреЗрдЯрд╛ рд╕реЗ рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ рдкреБрдирд░реНрдирд┐рд░реНрдорд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ, рдЬреЛ рдЪреЗрд╣рд░реЗ рдХреА рдЕрднрд┐рд╡реНрдпрдХреНрддрд┐рдпреЛрдВ рд╕реЗ рд╕рдВрдмрдВрдзрд┐рдд рд╣реИ, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рд╕рд┐рд╕реНрдЯрдо рдХреА рдХрдИ рд╡реНрдпрд╛рдЦреНрдпрд╛рдУрдВ рдХреЗ рд╢реЛрд╖рдг рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗред рд╕реНрд░реЛрдд: https://arxiv.org/pdf/2108.10800.pdf

शोध में, वास्तविक पहचान को कथित तौर पर गुमनाम डेटा से सफलतापूर्वक पुनर्निर्मित किया जाता है, जो चेहरे की अभिव्यक्तियों से संबंधित है, मशीन लर्निंग सिस्टम की कई व्याख्याओं के शोषण के माध्यम से। स्रोत: https://arxiv.org/pdf/2108.10800.pdf

शोधकर्ता टिप्पणी करते हैं:

‘व्याख्यात्मक कृत्रिम बुद्धिमत्ता (एक्सएआई) मॉडल निर्णयों को समझने में उपयोगकर्ताओं की मदद करने के लिए अधिक जानकारी प्रदान करती है, लेकिन यह अतिरिक्त ज्ञान गोपनीयता हमलों के लिए अतिरिक्त जोखिमों को उजागर करता है। इसलिए, व्याख्या गोपनीयता को नुकसान पहुंचाती है।’

निजी डेटा की पुनः पहचान

मशीन लर्निंग डेटासेट में भाग लेने वाले लोगों ने गुमनामी की धारणा पर भाग लेने की सहमति दी हो सकती है; व्यक्तिगत रूप से पहचान योग्य जानकारी (पीआईआई) के मामले में जो एआई सिस्टम में समाप्त हो जाती है जो सामाजिक नेटवर्क के माध्यम से अड हॉक डेटा संग्रह के माध्यम से होती है, भागीदारी तकनीकी रूप से कानूनी हो सकती है, लेकिन ‘सहमति’ की धारणा को तनाव देती है।

हाल के वर्षों में, कई तरीके सामने आए हैं जो कथित तौर पर अपारदर्शी मशीन लर्निंग डेटा प्रवाह से पीआईआई को डी-एनोनिमाइज़ करने में सक्षम साबित हुए हैं। मॉडल निष्कर्षण एपीआई एक्सेस (अर्थात ‘ब्लैक बॉक्स’ एक्सेस, स्रोत कोड या डेटा की विशेष उपलब्धता के बिना) का उपयोग करके पीआईआई को निकालने के लिए हाई-स्केल एमएलएएस प्रदाताओं सहित अमेज़न वेब सेवाओं से भी निकाल सकता है, जबकि सदस्यता अनुमान हमले (एमआईए), समान प्रतिबंधों के तहत काम करते हुए, संभावित रूप से प्राप्त गोपनीय चिकित्सा जानकारी प्राप्त कर सकते हैं; इसके अलावा, गुणांक अनुमान हमले (एआईए) संवेदनशील डेटा को एपीआई आउटपुट से पुनर्प्राप्त कर सकते हैं।

चेहरों का खुलासा

नई पेपर के लिए, शोधकर्ताओं ने एक मॉडल इनवर्जन हमले पर ध्यान केंद्रित किया है जो कथित तौर पर पहचान को प्रकट नहीं करने वाले चेहरे की भावना डेटा के एक उपसमूह से पहचान प्राप्त करने के लिए डिज़ाइन किया गया है।

प्रणाली का उद्देश्य इंटरनेट पर पोस्ट की गई या संभावित डेटा उल्लंघन में पाई जाने वाली छवियों को मशीन लर्निंग एल्गोरिदम के अंतर्निहित डेटासेट में उनके समावेश के साथ जोड़ना था।

शोधकर्ताओं ने एक इनवर्जन हमला मॉडल को प्रशिक्षित किया जो मूल छवि को गुमनाम एपीआई आउटपुट से पुनर्निर्मित करने में सक्षम था, बिना मूल वास्तुकला की विशेष पहुंच के। इस क्षेत्र में पहले के काम ने उन प्रणालियों पर ध्यान केंद्रित किया जहां पहचान (सुरक्षा या प्रकटीकरण) दोनों लक्ष्य प्रणाली और हमला प्रणाली का उद्देश्य था; इस मामले में, फ्रेमवर्क को एक डोमेन के आउटपुट का शोषण करने और इसे एक अलग डोमेन पर लागू करने के लिए डिज़ाइन किया गया है।

एक ट्रांसपोज्ड कॉन्वोल्यूशनल न्यूरल नेटवर्क (सीएनएन) का उपयोग एक भावना पहचान प्रणाली के लिए लक्ष्य पूर्वानुमान वेक्टर (सैलिएंसी मैप) के आधार पर ‘मूल’ स्रोत चेहरे की भविष्यवाणी करने के लिए किया गया था, एक यू-नेट आर्किटेक्चर का उपयोग करके चेहरे की पुनर्निर्माण कार्यक्षमता में सुधार किया गया था।

рдкреБрдирд░реНрдирд┐рд░реНрдорд╛рдг рдкреНрд░рдгрд╛рд▓реА рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХ рдПрдЖрдИ (рдПрдХреНрд╕рдПрдЖрдИ) рджреНрд╡рд╛рд░рд╛ рд╕рдВрдЪрд╛рд▓рд┐рдд рдФрд░ рд╕реВрдЪрд┐рдд рд╣реИ, рдЬрд╣рд╛рдВ рдиреНрдпреВрд░реЙрди рд╕рдХреНрд░рд┐рдпрдг рдЬреИрд╕реЗ рдХрдИ рдпреЛрдЧрджрд╛рди рджреЗрдиреЗ рд╡рд╛рд▓реЗ рд╕рд╛рд░реНрд╡рдЬрдирд┐рдХ рдПрдХреНрд╕рдПрдЖрдИ рдкрд╣рд▓реБрдУрдВ рдХрд╛ рд╢реЛрд╖рдг рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рдЖрдЙрдЯрдкреБрдЯ рд╕реЗ рд╣реА рдЗрд╕рдХреЗ рдЖрдВрддрд░рд┐рдХ рддрдВрддреНрд░ рдХреЛ рдкреБрдирд░реНрдирд┐рд░реНрдорд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ, рдЬрд┐рд╕рд╕реЗ рдбреЗрдЯрд╛рд╕реЗрдЯ рдЫрд╡рд┐рдпреЛрдВ рдХреА рдкреБрдирдГ рдкрд╣рдЪрд╛рди рд╕рдВрднрд╡ рд╣реЛ рдЬрд╛рддреА рд╣реИред

पुनर्निर्माण प्रणाली व्याख्यात्मक एआई (एक्सएआई) द्वारा संचालित और सूचित है, जहां न्यूरॉन सक्रियण जैसे कई योगदान देने वाले सार्वजनिक एक्सएआई पहलुओं का शोषण आर्किटेक्चर के आउटपुट से ही इसके आंतरिक तंत्र को पुनर्निर्मित करने के लिए किया जाता है, जिससे डेटासेट छवियों की पुनः पहचान संभव हो जाती है।

परीक्षण

प्रणाली का परीक्षण करते समय, शोधकर्ताओं ने इसे तीन डेटासेट के खिलाफ लागू किया: आईसीवी-एमईएफईडी चेहरे की अभिव्यक्तियाँ; सेलेबीए; और एमएनआईएसटी हस्तलिखित अंक. शोधकर्ताओं द्वारा उपयोग किए जाने वाले मॉडल के आकार को समायोजित करने के लिए, तीन डेटासेट को क्रमशः 128×128, 265×256 और 32×32 पिक्सेल में बदल दिया गया था। प्रत्येक सेट का 50% प्रशिक्षण डेटा के रूप में उपयोग किया गया था, और शेष आधा हमला डेटासेट के रूप में उपयोग किया गया था ताकि विरोधी मॉडल को प्रशिक्षित किया जा सके।

प्रत्येक डेटासेट में अलग-अलग लक्ष्य मॉडल थे, और प्रत्येक हमला नेटवर्क को प्रक्रिया के तहत स्पष्टीकरणों की सीमाओं के अनुसार स्केल किया गया था, न कि गहरे न्यूरल मॉडल का उपयोग किया गया था जिसकी जटिलता स्पष्टीकरणों के सामान्यीकरण से अधिक होती।

एक्सएआई स्पष्टीकरण प्रकार जो प्रयासों को शक्ति प्रदान करने के लिए उपयोग किए गए थे उनमें ग्रेडिएंट स्पष्टीकरण, ग्रेडिएंट इनपुट, ग्रेड-कैम और लेयर-वाइज रिलेवेंस प्रोपेगेशन (एलआरपी) शामिल थे। शोधकर्ताओं ने प्रयोगों में कई स्पष्टीकरणों का मूल्यांकन किया।

рдПрдХреНрд╕рдПрдЖрдИ-рд╕рдВрдЬреНрдЮрд╛рдирд╛рддреНрдордХ рдЗрдирд╡рд░реНрдЬрди рд╣рдорд▓реЗ рджреНрд╡рд╛рд░рд╛ рддреАрди рдбреЗрдЯрд╛рд╕реЗрдЯ рдореЗрдВ рдЫрд╡рд┐ рдкреБрдирд░реНрдирд┐рд░реНрдорд╛рдг, рдЬрд┐рд╕рдореЗрдВ рд╕рдорд╛рди рд▓рдХреНрд╖реНрдп рдФрд░ рд╣рдорд▓рд╛ рдХрд╛рд░реНрдп рд╣реИрдВред рд╕реНрд░реЛрдд: https://arxiv.org/pdf/2108.10800.pdf

एक्सएआई-संज्ञानात्मक इनवर्जन हमले द्वारा तीन डेटासेट में छवि पुनर्निर्माण, जिसमें समान लक्ष्य और हमला कार्य हैं। स्रोत: https://arxiv.org/pdf/2108.10800.pdf

परीक्षण के लिए मेट्रिक्स पिक्सेलवाइज़ समानता थी जो मीन स्क्वायर्ड एरर (एमएसई) द्वारा मूल्यांकित की गई थी; छवि समानता (एसएसआईएम), एक संवेदी आधारित समानता सूचकांक; हमला सटीकता, जो यह निर्धारित करता है कि क्या एक वर्गीकारक एक पुनर्निर्मित छवि को सफलतापूर्वक पुनः लेबल कर सकता है; और हमला एम्बेडिंग समानता, जो ज्ञात स्रोत डेटा के सुविधा एम्बेडिंग की तुलना पुनर्निर्मित डेटा से करती है।

पुनः पहचान सभी सेटों में प्राप्त की गई थी, जो कार्य और डेटासेट के अनुसार भिन्न स्तरों पर थी। इसके अलावा, शोधकर्ताओं ने पाया कि एक सरोगेट लक्ष्य मॉडल (जिस पर उन्हें पूरा नियंत्रण था) का निर्माण करके, यह अभी भी संभव था कि बाहरी ‘बंद’ मॉडल से डेटा की पुनः पहचान करने के लिए ज्ञात एक्सएआई सिद्धांतों के आधार पर किया जा सके।

शोधकर्ताओं ने पाया कि सबसे सटीक परिणाम सक्रियण-आधारित (सैलिएंसी मैप) स्पष्टीकरण द्वारा प्राप्त किए गए थे, जो संवेदनशीलता-आधारित (ग्रेडिएंट) दृष्टिकोणों की तुलना में अधिक पीआईआई का रिसाव करते थे।

भविष्य के कार्य में, टीम विभिन्न प्रकार के एक्सएआई स्पष्टीकरण को नए हमलों में शामिल करने का इरादा रखती है, जैसे कि फीचर विज़ुअलाइज़ेशन और कॉन्सेप्ट एक्टिवेशन वेक्टर

рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдкрд░ рд▓реЗрдЦрдХ, рдорд╛рдирд╡ рдЗрдореЗрдЬ рд╕рд┐рдВрдереЗрд╕рд┐рд╕ рдореЗрдВ рдбреЛрдореЗрди рд╡рд┐рд╢реЗрд╖рдЬреНрдЮред рдореЗрдЯрд╛рдлрд┐рдЬрд┐рдХ.рдПрдЖрдИ рдореЗрдВ рдЕрдиреБрд╕рдВрдзрд╛рди рд╕рд╛рдордЧреНрд░реА рдХреЗ рдкреВрд░реНрд╡ рдкреНрд░рдореБрдЦред
рд╡реНрдпрдХреНрддрд┐рдЧрдд рд╕рд╛рдЗрдЯ: martinanderson.ai
рд╕рдВрдкрд░реНрдХ: [email protected]
рдЯреНрд╡рд┐рдЯрд░: @manders_ai