рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдХрдореНрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдбреЗрдЯрд╛рд╕реЗрдЯ рдХреЛ рдЕрдирдзрд┐рдХреГрдд рдЙрдкрдпреЛрдЧ рдХреЗ рдЦрд┐рд▓рд╛рдл рд▓рдВрдЧрдбрд╝рд╛ рдХрд░рдирд╛

चीन के शोधकर्ताओं ने कंप्यूटर विजन प्रशिक्षण के लिए उपयोग किए जाने वाले छवि डेटासेट को कॉपीराइट से सुरक्षित करने के लिए एक विधि विकसित की है, जिसमें डेटा में छवियों को प्रभावी ढंग से ‘वॉटरमार्क’ किया जाता है, और फिर क्लाउड-आधारित प्लेटफ़ॉर्म के माध्यम से केवल अधिकृत उपयोगकर्ताओं के लिए ‘साफ’ छवियों को डिक्रिप्ट किया जाता है।
सिस्टम पर परीक्षण से पता चलता है कि कॉपीराइट से सुरक्षित छवियों पर एक मशीन लर्निंग मॉडल को प्रशिक्षित करने से मॉडल की सटीकता में एक विनाशकारी गिरावट आती है। दो लोकप्रिय ओपन सोर्स छवि डेटासेट पर सिस्टम का परीक्षण करने पर, शोधकर्ताओं ने पाया कि यह संभव था कि साफ डेटासेट के लिए 86.21% और 74.00% से शुद्धता को गैर-डिक्रिप्ट किए गए डेटा पर मॉडल को प्रशिक्षित करने का प्रयास करते समय 38.23% और 16.20% तक कम किया जा सकता है।

पेपर से – बाएं से दाएं, साफ, सुरक्षित (अर्थात विकृत) और पुनर्प्राप्त छवियों के उदाहरण। स्रोत: https://arxiv.org/pdf/2109.07921.pdf
यह संभावित रूप से उच्च गुणवत्ता वाले महंगे डेटासेट के व्यापक सार्वजनिक वितरण की अनुमति देता है, और (संभवतः), यहां तक कि ‘डेमो’ प्रशिक्षण के लिए आंशिक रूप से विकृत डेटासेट भी ताकि अनुमानित कार्यक्षमता का प्रदर्शन किया जा सके।
क्लाउड-आधारित डेटासेट प्रमाणीकरण
पेपर पेपर नैनजिंग विश्वविद्यालय ऑफ एयरोनॉटिक्स एंड एस्ट्रोनॉटिक्स के दो विभागों के शोधकर्ताओं से आता है, और डेटासेट मैनेजमेंट क्लाउड प्लेटफ़ॉर्म (DMCP) के नियमित उपयोग की कल्पना करता है, एक दूरस्थ प्रमाणीकरण फ्रेमवर्क जो एडोब क्रिएटिव सूट जैसे स्थानीय स्थापनाओं में पूर्व-प्रकाशन प्रमाणीकरण के समान प्रकार की टेलीमेट्री प्रदान करेगा।
सुरक्षित छवि का निर्माण फीचर स्पेस पर्टुर्बेशन के माध्यम से किया जाता है, एक प्रतिकूल हमला विधि जिसे 2019 में नॉर्थ कैरोलिना के ड्यूक विश्वविद्यालय में विकसित किया गया था।

फीचर स्पेस पर्टुर्बेशन एक ‘एक्टिवेशन अटैक’ करता है जहां एक छवि की विशेषताओं को एक प्रतिकूल छवि के फीचर स्पेस की ओर धकेल दिया जाता है। इस मामले में, हमला मशीन लर्निंग पहचान प्रणाली को एक कुत्ते को एक विमान के रूप में वर्गीकृत करने के लिए मजबूर कर रहा है। स्रोत: https://openaccess.thecvf.com
इसके बाद, ब्लॉक जोड़े और ब्लॉक परिवर्तन के माध्यम से अपरिवर्तित छवि को विकृत छवि में एम्बेड किया जाता है, जैसा कि 2016 के पेपर एन्क्रिप्टेड इमेज में रिवर्सिबल डेटा हाइडिंग द्वारा रिवर्सिबल इमेज ट्रांसफॉर्मेशन में प्रस्तावित किया गया है।
ब्लॉक जोड़े की जानकारी वाली क्रम को तब एक अस्थायी इंटरस्टिशियल छवि में एम्बेड किया जाता है जो एईएस एन्क्रिप्शन का उपयोग करता है, जिसकी कुंजी बाद में प्रमाणीकरण समय पर डीएमसीपी से पुनर्प्राप्त की जाएगी। लीस्ट सिग्निफिकेंट बिट स्टेगनोग्राफिक एल्गोरिदम का उपयोग तब कुंजी को एम्बेड करने के लिए किया जाता है। लेखक इस प्रक्रिया को संशोधित रिवर्सिबल इमेज ट्रांसफॉर्मेशन (मआरआईटी) कहते हैं।
डिक्रिप्शन समय पर मआरआईटी दिनचर्या मूल रूप से उलट जाती है, जिसमें ‘साफ’ छवि को प्रशिक्षण सत्र में उपयोग के लिए पुनर्स्थापित किया जाता है।
परीक्षण
शोधकर्ताओं ने सिस्टम का परीक्षण रेसनेट-18 आर्किटेक्चर पर दो डेटासेट के साथ किया: 2009 का काम सीआईएफएआर-10, जिसमें 10 वर्गों में 6000 छवियां हैं; और स्टैनफोर्ड का टिनीइमेजनेट, जो इमेजनेट वर्गीकरण चुनौती के लिए डेटा का एक उपसेट है जिसमें 100,000 छवियों का प्रशिक्षण डेटासेट है, साथ ही 10,000 छवियों का सत्यापन डेटासेट और 10,000 छवियों का परीक्षण सेट है।
रेसनेट मॉडल को तीन कॉन्फ़िगरेशन पर शून्य से प्रशिक्षित किया गया था: साफ, सुरक्षित और डिक्रिप्ट किया गया डेटासेट। दोनों डेटासेट ने एडम ऑप्टिमाइज़र का उपयोग किया जिसमें 0.01 की प्रारंभिक लर्निंग दर, 128 का बैच आकार और 80 का प्रशिक्षण युग था।

एन्क्रिप्शन सिस्टम पर परीक्षण से प्रशिक्षण और परीक्षण सटीकता परिणाम। उलटी (यानी, डिक्रिप्ट की गई) छवियों के लिए प्रशिक्षण सांख्यिकी में छोटे नुकसान देखे जा सकते हैं।
हालांकि पेपर निष्कर्ष निकालता है कि ‘पुनर्प्राप्त डेटासेट पर मॉडल का प्रदर्शन प्रभावित नहीं होता है’, परिणाम मूल डेटा की तुलना में पुनर्प्राप्त डेटा पर सटीकता में छोटे नुकसान दिखाते हैं, सीआईएफएआर-10 के लिए 86.21% से 85.86% तक, और टिनीइमेजनेट पर 74.00% से 73.20% तक।
हालांकि, जीपीयू हार्डवेयर के साथ-साथ छोटे बीज परिवर्तनों के प्रभाव को देखते हुए प्रशिक्षण प्रदर्शन को प्रभावित कर सकते हैं, यह आईपी-सुरक्षा के लिए सटीकता के खिलाफ एक न्यूनतम और प्रभावी व्यापार लगता है।
मॉडल सुरक्षा परिदृश्य
पूर्व कार्य ने मुख्य रूप से वास्तविक मशीन लर्निंग मॉडल को आईपी-सुरक्षित करने पर ध्यान केंद्रित किया है, यह मानकर कि प्रशिक्षण डेटा स्वयं अधिक कठिन है: 2018 के एक शोध प्रयास ने जापान से एक विधि प्रदान की थी जिसमें गहरे तंत्रिका नेटवर्क में वॉटरमार्क एम्बेड करना शामिल था; 2017 का पूर्व कार्य एक समान दृष्टिकोण प्रदान करता है।
2018 की एक पहल आईबीएम से न्यूरल नेटवर्क मॉडल के लिए वॉटरमार्किंग की संभावना में सबसे गहरा और सबसे प्रतिबद्ध जांच की थी। यह दृष्टिकोण नए शोध से अलग था, क्योंकि यह प्रशिक्षण डेटा में गैर-उलट वॉटरमार्क एम्बेड करना चाहता था और फिर न्यूरल नेटवर्क के अंदर फिल्टर का उपयोग करके डेटा में परिवर्तनों को ‘छूट’ देना चाहता था।

आईबीएम की योजना न्यूरल नेटवर्क को वॉटरमार्क की अनदेखी करने के लिए तार्किक रूप से डेटा के वॉटरमार्क वाले खंडों को पहचानने और छोड़ने के लिए डिज़ाइन किए गए वास्तुकला के हिस्सों की सुरक्षा पर निर्भर करती थी। स्रोत: https://gzs715.github.io/pubs/WATERMARK_ASIACCS18.pdf
चोरी वेक्टर
हालांकि डेटासेट एन्क्रिप्शन फ्रेमवर्क को आईपी-सुरक्षित करने का पीछा करना एक ऐसा मामला लगता है जो मशीन लर्निंग संस्कृति के संदर्भ में जो अभी भी खुले स्रोत समीक्षा और शोध समुदाय के बीच जानकारी साझा करने पर निर्भर करती है, गोपनीयता-संरक्षण पहचान सुरक्षा एल्गोरिदम में लगातार रुचि ऐसे सिस्टम का उत्पादन करने की संभावना है जो निगमों को विशिष्ट डेटा की सुरक्षा के लिए उपयोगी हो सकते हैं, न कि पीआईआई।
नई शोध में छवि डेटा में यादृच्छिक परिवर्तन नहीं जोड़े जाते हैं, बल्कि कृत्रिम, मजबूर फीचर स्पेस में परिवर्तन किए जाते हैं। इसलिए, वर्तमान वॉटरमार्क हटाने और छवि सुधार कंप्यूटर विजन परियोजनाओं का सेट संभावित रूप से ‘पुनर्स्थापित’ छवियों को मानव-धारण उच्च गुणवत्ता में पुनर्स्थापित कर सकता है बिना वास्तव में फीचर परिवर्तनों को हटाए जो मिस्क्लासिफिकेशन का कारण बनते हैं।
कंप्यूटर विजन के कई अनुप्रयोगों में, विशेष रूप से उनमें जो लेबलिंग और इकाई पहचान शामिल है, ऐसी अवैध रूप से पुनर्स्थापित छवियां संभवतः अभी भी मिस्क्लासिफिकेशन का कारण बनेंगी। हालांकि, उन मामलों में जहां छवि परिवर्तन मुख्य उद्देश्य हैं (जैसे कि चेहरे का निर्माण या डीपफ़ेक अनुप्रयोग), एल्गोरिदम द्वारा पुनर्स्थापित छवियां कार्यात्मक एल्गोरिदम के विकास में संभावित रूप से उपयोगी हो सकती हैं।













