ठूंठ शोधकर्ताओं ने लंबे समय से चली आ रही मशीन लर्निंग धारणा को चुनौती दी - Unite.AI
हमसे जुडे

Ethics

शोधकर्ताओं ने लंबे समय से चली आ रही मशीन लर्निंग धारणा को चुनौती दी

प्रकाशित

 on

कार्नेगी मेलन विश्वविद्यालय के शोधकर्ता लंबे समय से चली आ रही मशीन लर्निंग धारणा को चुनौती दे रहे हैं कि सार्वजनिक नीति निर्णय लेने के लिए उपयोग किए जाने वाले एल्गोरिदम में सटीकता और निष्पक्षता के बीच एक व्यापार-बंद है। 

आपराधिक न्याय, नियुक्ति, स्वास्थ्य देखभाल वितरण और सामाजिक सेवा हस्तक्षेप जैसे कई क्षेत्रों में मशीन लर्निंग का उपयोग बढ़ रहा है। इस वृद्धि के साथ यह चिंता भी बढ़ गई है कि क्या ये नए अनुप्रयोग मौजूदा असमानताओं को और खराब कर सकते हैं। वे नस्लीय अल्पसंख्यकों या आर्थिक रूप से वंचित व्यक्तियों के लिए विशेष रूप से हानिकारक हो सकते हैं। 

एक सिस्टम को समायोजित करना

पूर्वाग्रह से बचाव के लिए डेटा, लेबल, मॉडल प्रशिक्षण, स्कोरिंग सिस्टम और सिस्टम के अन्य पहलुओं में निरंतर समायोजन किया जाता है। हालाँकि, सैद्धांतिक धारणा यह रही है कि जब इनमें से अधिक समायोजन होते हैं तो सिस्टम कम सटीक हो जाता है। 

सीएमयू की टीम ने प्रकाशित एक नए अध्ययन में इस सिद्धांत को चुनौती देने की योजना बनाई है प्रकृति मशीन इंटेलिजेंस.

रायद गनी स्कूल ऑफ कंप्यूटर साइंस के मशीन लर्निंग डिपार्टमेंट (एमएलडी) और हेंज कॉलेज ऑफ इंफॉर्मेशन सिस्टम्स एंड पब्लिक पॉलिसी में प्रोफेसर हैं। उनके साथ एमएलडी में एक शोध वैज्ञानिक किट रोडोल्फा भी शामिल थे; और एससीएस में पोस्ट-डॉक्टोरल शोधकर्ता हेमांक लांबा। 

वास्तविक दुनिया के अनुप्रयोगों का परीक्षण

शोधकर्ताओं ने वास्तविक दुनिया के अनुप्रयोगों में इस धारणा का परीक्षण किया, और उन्होंने पाया कि कई नीति डोमेन में व्यापार-बंद नगण्य है। 

“वास्तव में आप दोनों पा सकते हैं। गनी ने कहा, "आपको निष्पक्ष और न्यायसंगत सिस्टम बनाने के लिए सटीकता का त्याग करने की ज़रूरत नहीं है।" “लेकिन इसके लिए आपको जानबूझकर सिस्टम को निष्पक्ष और न्यायसंगत बनाने की आवश्यकता है। ऑफ-द-शेल्फ सिस्टम काम नहीं करेगा।”

टीम ने उन स्थितियों पर ध्यान केंद्रित किया जहां मांग वाले संसाधन सीमित हैं। इन संसाधनों के आवंटन में मशीन लर्निंग द्वारा मदद की जाती है।

उन्होंने चार क्षेत्रों में प्रणालियों पर ध्यान केंद्रित किया:

  • पुनर्जन्म को कम करने के लिए किसी व्यक्ति के जेल लौटने के जोखिम के आधार पर सीमित मानसिक स्वास्थ्य देखभाल आउटरीच को प्राथमिकता देना;
  • शहर के सीमित आवास निरीक्षकों को बेहतर ढंग से तैनात करने के लिए गंभीर सुरक्षा उल्लंघनों की भविष्यवाणी करना;
  • उन छात्रों की पहचान करने के लिए समय पर हाई स्कूल से स्नातक नहीं होने के जोखिम का मॉडलिंग करना जिन्हें अतिरिक्त सहायता की सबसे अधिक आवश्यकता है;
  • और शिक्षकों को कक्षा की जरूरतों के लिए क्राउडफंडिंग लक्ष्यों तक पहुंचने में मदद करना।

शोधकर्ताओं ने पाया कि सटीकता के लिए अनुकूलित मॉडल रुचि के परिणामों की प्रभावी ढंग से भविष्यवाणी कर सकते हैं। हालाँकि, उन्होंने हस्तक्षेपों के लिए सिफारिशों में काफी असमानताएँ भी प्रदर्शित कीं। 

महत्वपूर्ण परिणाम तब आए जब शोधकर्ताओं ने उन मॉडलों के आउटपुट में समायोजन लागू किया जिनका लक्ष्य उनकी निष्पक्षता में सुधार करना था। उन्होंने पाया कि जब नस्ल, उम्र या आय पर आधारित असमानताओं को हटा दिया गया तो सटीकता में कोई कमी नहीं आई। 

रोडोल्फा ने कहा, "हम चाहते हैं कि कृत्रिम बुद्धिमत्ता, कंप्यूटर विज्ञान और मशीन सीखने वाले समुदाय सटीकता और निष्पक्षता के बीच व्यापार-बंद की इस धारणा को स्वीकार करना बंद कर दें और जानबूझकर ऐसे सिस्टम डिजाइन करना शुरू करें जो दोनों को अधिकतम करें।" "हमें उम्मीद है कि नीति निर्माता समान परिणाम प्राप्त करने में मदद करने के लिए अपने निर्णय लेने में मशीन लर्निंग को एक उपकरण के रूप में अपनाएंगे।"

एलेक्स मैकफ़ारलैंड एक एआई पत्रकार और लेखक हैं जो कृत्रिम बुद्धिमत्ता में नवीनतम विकास की खोज कर रहे हैं। उन्होंने दुनिया भर में कई एआई स्टार्टअप और प्रकाशनों के साथ सहयोग किया है।