Ethics
शोधकर्ताओं ने लंबे समय से चली आ रही मशीन लर्निंग धारणा को चुनौती दी
कार्नेगी मेलन विश्वविद्यालय के शोधकर्ता लंबे समय से चली आ रही मशीन लर्निंग धारणा को चुनौती दे रहे हैं कि सार्वजनिक नीति निर्णय लेने के लिए उपयोग किए जाने वाले एल्गोरिदम में सटीकता और निष्पक्षता के बीच एक व्यापार-बंद है।
आपराधिक न्याय, नियुक्ति, स्वास्थ्य देखभाल वितरण और सामाजिक सेवा हस्तक्षेप जैसे कई क्षेत्रों में मशीन लर्निंग का उपयोग बढ़ रहा है। इस वृद्धि के साथ यह चिंता भी बढ़ गई है कि क्या ये नए अनुप्रयोग मौजूदा असमानताओं को और खराब कर सकते हैं। वे नस्लीय अल्पसंख्यकों या आर्थिक रूप से वंचित व्यक्तियों के लिए विशेष रूप से हानिकारक हो सकते हैं।
एक सिस्टम को समायोजित करना
पूर्वाग्रह से बचाव के लिए डेटा, लेबल, मॉडल प्रशिक्षण, स्कोरिंग सिस्टम और सिस्टम के अन्य पहलुओं में निरंतर समायोजन किया जाता है। हालाँकि, सैद्धांतिक धारणा यह रही है कि जब इनमें से अधिक समायोजन होते हैं तो सिस्टम कम सटीक हो जाता है।
सीएमयू की टीम ने प्रकाशित एक नए अध्ययन में इस सिद्धांत को चुनौती देने की योजना बनाई है प्रकृति मशीन इंटेलिजेंस.
रायद गनी स्कूल ऑफ कंप्यूटर साइंस के मशीन लर्निंग डिपार्टमेंट (एमएलडी) और हेंज कॉलेज ऑफ इंफॉर्मेशन सिस्टम्स एंड पब्लिक पॉलिसी में प्रोफेसर हैं। उनके साथ एमएलडी में एक शोध वैज्ञानिक किट रोडोल्फा भी शामिल थे; और एससीएस में पोस्ट-डॉक्टोरल शोधकर्ता हेमांक लांबा।
वास्तविक दुनिया के अनुप्रयोगों का परीक्षण
शोधकर्ताओं ने वास्तविक दुनिया के अनुप्रयोगों में इस धारणा का परीक्षण किया, और उन्होंने पाया कि कई नीति डोमेन में व्यापार-बंद नगण्य है।
“वास्तव में आप दोनों पा सकते हैं। गनी ने कहा, "आपको निष्पक्ष और न्यायसंगत सिस्टम बनाने के लिए सटीकता का त्याग करने की ज़रूरत नहीं है।" “लेकिन इसके लिए आपको जानबूझकर सिस्टम को निष्पक्ष और न्यायसंगत बनाने की आवश्यकता है। ऑफ-द-शेल्फ सिस्टम काम नहीं करेगा।”
टीम ने उन स्थितियों पर ध्यान केंद्रित किया जहां मांग वाले संसाधन सीमित हैं। इन संसाधनों के आवंटन में मशीन लर्निंग द्वारा मदद की जाती है।
उन्होंने चार क्षेत्रों में प्रणालियों पर ध्यान केंद्रित किया:
- पुनर्जन्म को कम करने के लिए किसी व्यक्ति के जेल लौटने के जोखिम के आधार पर सीमित मानसिक स्वास्थ्य देखभाल आउटरीच को प्राथमिकता देना;
- शहर के सीमित आवास निरीक्षकों को बेहतर ढंग से तैनात करने के लिए गंभीर सुरक्षा उल्लंघनों की भविष्यवाणी करना;
- उन छात्रों की पहचान करने के लिए समय पर हाई स्कूल से स्नातक नहीं होने के जोखिम का मॉडलिंग करना जिन्हें अतिरिक्त सहायता की सबसे अधिक आवश्यकता है;
- और शिक्षकों को कक्षा की जरूरतों के लिए क्राउडफंडिंग लक्ष्यों तक पहुंचने में मदद करना।
शोधकर्ताओं ने पाया कि सटीकता के लिए अनुकूलित मॉडल रुचि के परिणामों की प्रभावी ढंग से भविष्यवाणी कर सकते हैं। हालाँकि, उन्होंने हस्तक्षेपों के लिए सिफारिशों में काफी असमानताएँ भी प्रदर्शित कीं।
महत्वपूर्ण परिणाम तब आए जब शोधकर्ताओं ने उन मॉडलों के आउटपुट में समायोजन लागू किया जिनका लक्ष्य उनकी निष्पक्षता में सुधार करना था। उन्होंने पाया कि जब नस्ल, उम्र या आय पर आधारित असमानताओं को हटा दिया गया तो सटीकता में कोई कमी नहीं आई।
रोडोल्फा ने कहा, "हम चाहते हैं कि कृत्रिम बुद्धिमत्ता, कंप्यूटर विज्ञान और मशीन सीखने वाले समुदाय सटीकता और निष्पक्षता के बीच व्यापार-बंद की इस धारणा को स्वीकार करना बंद कर दें और जानबूझकर ऐसे सिस्टम डिजाइन करना शुरू करें जो दोनों को अधिकतम करें।" "हमें उम्मीद है कि नीति निर्माता समान परिणाम प्राप्त करने में मदद करने के लिए अपने निर्णय लेने में मशीन लर्निंग को एक उपकरण के रूप में अपनाएंगे।"