ठूंठ व्हाइट हाउस के एआई बिल ऑफ राइट्स का अमेरिका और शेष विश्व के लिए क्या मतलब है - यूनाइट.एआई
हमसे जुडे

Ethics

व्हाइट हाउस के एआई बिल ऑफ राइट्स का अमेरिका और शेष विश्व के लिए क्या मतलब है

mm
Updated on

व्हाइट हाउस ऑफ़िस ऑफ़ साइंस एंड टेक्नोलॉजी पॉलिसी (ओएसटीपी) ने हाल ही में एक श्वेतपत्र जारी किया इसे "द ब्लूप्रिंट फॉर ए एआई बिल ऑफ राइट्स: मेकिंग ऑटोमेटेड सिस्टम्स वर्क फॉर द अमेरिकन पीपल" कहा जाता है। ओएसटीपी द्वारा "एआई-संचालित दुनिया के लिए अधिकारों का बिल" विकसित करने की प्रक्रिया शुरू करने की घोषणा के एक साल बाद यह ढांचा जारी किया गया था।

इस बिल की प्रस्तावना स्पष्ट रूप से दर्शाती है कि व्हाइट हाउस एआई द्वारा समाज के लिए उत्पन्न होने वाले आसन्न खतरों को समझता है। प्रस्तावना में यही कहा गया है:

“आज लोकतंत्र के समक्ष उत्पन्न बड़ी चुनौतियों में प्रौद्योगिकी, डेटा और स्वचालित प्रणालियों का इस तरह से उपयोग है जो अमेरिकी जनता के अधिकारों को खतरे में डालता है। अक्सर, इन उपकरणों का उपयोग हमारे अवसरों को सीमित करने और महत्वपूर्ण संसाधनों या सेवाओं तक हमारी पहुंच को रोकने के लिए किया जाता है। ये समस्याएं अच्छी तरह से प्रलेखित हैं। अमेरिका और दुनिया भर में, मरीजों की देखभाल में मदद करने वाली प्रणालियाँ असुरक्षित, अप्रभावी या पक्षपातपूर्ण साबित हुई हैं। नियुक्ति और क्रेडिट निर्णयों में उपयोग किए जाने वाले एल्गोरिदम मौजूदा अवांछित असमानताओं को प्रतिबिंबित और पुन: उत्पन्न करते हैं या नए हानिकारक पूर्वाग्रह और भेदभाव को अंतर्निहित करते पाए गए हैं। अनियंत्रित सोशल मीडिया डेटा संग्रह का उपयोग लोगों के अवसरों को खतरे में डालने, उनकी गोपनीयता को कम करने, या उनकी गतिविधि को व्यापक रूप से ट्रैक करने के लिए किया गया है - अक्सर उनकी जानकारी या सहमति के बिना।

यह अधिकार विधेयक और इसके प्रस्तावित ढांचे का एआई के भविष्य के लिए क्या अर्थ होगा यह अभी देखा जाना बाकी है। हम जो जानते हैं वह यह है कि नए विकास बहुत तेजी से सामने आ रहे हैं। जिसे कभी असंभव माना जाता था, तत्काल भाषा अनुवाद अब एक वास्तविकता है, और साथ ही हमारे पास प्राकृतिक भाषा समझ (एनएलयू) में एक क्रांति है जिसका नेतृत्व ओपनएआई और उनके प्रसिद्ध मंच ने किया है। GPT-3.

तब से हमने देखा है छवियों की त्वरित पीढ़ी स्टेबल डिफ्यूजन नामक एक तकनीक के माध्यम से जो जल्द ही संभव हो सकती है मुख्यधारा का उपभोक्ता उत्पाद बनें. संक्षेप में इस तकनीक के साथ उपयोगकर्ता किसी भी क्वेरी को आसानी से टाइप कर सकता है जिसकी वे कल्पना कर सकते हैं, और जादू की तरह एआई एक छवि उत्पन्न करेगा जो क्वेरी से मेल खाती है।

जब घातांकीय वृद्धि को ध्यान में रखा जाता है और त्वरित रिटर्न का नियम जल्द ही एक समय आएगा जब AI ने दैनिक जीवन के हर पहलू पर कब्ज़ा कर लिया होगा। जो व्यक्ति और कंपनियां इसे जानते हैं और इस प्रतिमान बदलाव का लाभ उठाते हैं उन्हें लाभ होगा। दुर्भाग्य से, समाज का एक बड़ा वर्ग एआई के गलत इरादे और अनपेक्षित दोनों परिणामों का शिकार हो सकता है।

एआई बिल ऑफ राइट्स का उद्देश्य उन नीतियों और प्रथाओं के विकास का समर्थन करना है जो नागरिक अधिकारों की रक्षा करते हैं और स्वचालित प्रणालियों के निर्माण, तैनाती और शासन में लोकतांत्रिक मूल्यों को बढ़ावा देते हैं। इस बिल की तुलना कैसे होगी चीन का दृष्टिकोण यह देखा जाना बाकी है, लेकिन यह अधिकारों का बिल है जिसमें एआई परिदृश्य को बदलने की क्षमता है, और इसे ऑस्ट्रेलिया, कनाडा और यूरोपीय संघ जैसे सहयोगियों द्वारा अपनाए जाने की संभावना है।

कहा जा रहा है कि एआई बिल ऑफ राइट्स गैर-बाध्यकारी है और अमेरिकी सरकार की नीति का गठन नहीं करता है। यह किसी भी मौजूदा क़ानून, विनियमन, नीति या अंतर्राष्ट्रीय उपकरण की व्याख्या को प्रतिस्थापित, संशोधित या निर्देशित नहीं करता है। इसका मतलब यह है कि इस श्वेतपत्र में उल्लिखित नीतियों का पालन करना उद्यमों और सरकारों पर निर्भर करेगा।

इस विधेयक में पांच सिद्धांतों की पहचान की गई है, जिन्हें कृत्रिम बुद्धिमत्ता के युग में अमेरिकी जनता की सुरक्षा के लिए स्वचालित प्रणालियों के डिजाइन, उपयोग और तैनाती का मार्गदर्शन करना चाहिए, नीचे हम 5 सिद्धांतों की रूपरेखा देंगे:

1. सुरक्षित एवं प्रभावी प्रणालियाँ

अपमानजनक एआई सिस्टम से समाज को स्पष्ट और वर्तमान खतरा है, विशेष रूप से वे जो गहन शिक्षा पर निर्भर हैं। इसे इन सिद्धांतों के साथ संबोधित करने का प्रयास किया गया है:

“आपको अप्रभावी प्रणालियों की असुरक्षितता से बचाया जाना चाहिए। सिस्टम की चिंताओं, जोखिमों और संभावित प्रभावों की पहचान करने के लिए विभिन्न समुदायों, हितधारकों और डोमेन विशेषज्ञों के परामर्श से स्वचालित सिस्टम विकसित किया जाना चाहिए। सिस्टम को पूर्व-तैनाती परीक्षण, जोखिम की पहचान और शमन, और चल रही निगरानी से गुजरना चाहिए जो दर्शाता है कि वे अपने इच्छित उपयोग के आधार पर सुरक्षित और प्रभावी हैं, इच्छित उपयोग से परे सहित असुरक्षित परिणामों का शमन, और डोमेन-विशिष्ट मानकों का पालन। इन सुरक्षात्मक उपायों के परिणामों में सिस्टम को तैनात न करने या सिस्टम को उपयोग से हटाने की संभावना शामिल होनी चाहिए। स्वचालित सिस्टम को आपकी सुरक्षा या आपके समुदाय की सुरक्षा को खतरे में डालने के इरादे या उचित रूप से संभावित संभावना के साथ डिज़ाइन नहीं किया जाना चाहिए। उन्हें स्वचालित प्रणालियों के अनपेक्षित, फिर भी पूर्वानुमानित, उपयोग या प्रभावों से होने वाले नुकसान से सक्रिय रूप से आपकी रक्षा करने के लिए डिज़ाइन किया जाना चाहिए। आपको स्वचालित सिस्टम के डिज़ाइन, विकास और तैनाती में अनुचित या अप्रासंगिक डेटा उपयोग और इसके पुन: उपयोग के जटिल नुकसान से बचाया जाना चाहिए। स्वतंत्र मूल्यांकन और रिपोर्टिंग जो पुष्टि करती है कि सिस्टम सुरक्षित और प्रभावी है, जिसमें संभावित नुकसान को कम करने के लिए उठाए गए कदमों की रिपोर्टिंग भी शामिल है, किया जाना चाहिए और जब भी संभव हो परिणाम सार्वजनिक किए जाने चाहिए।

2. एल्गोरिथम भेदभाव संरक्षण

जब व्यक्तियों के साथ दुर्व्यवहार करने वाले उद्यमों की बात आती है तो ये नीतियां कमरे में मौजूद कुछ हाथियों को संबोधित करती हैं।

एआई सिस्टम का उपयोग करके कर्मचारियों को काम पर रखते समय एक आम समस्या यह है कि गहन शिक्षण प्रणाली अक्सर काम पर रखने के निष्कर्ष तक पहुंचने के लिए पक्षपाती डेटा पर प्रशिक्षण देगी। इसका अनिवार्य रूप से मतलब यह है कि अतीत में खराब भर्ती प्रथाओं के परिणामस्वरूप भर्ती करने वाले एजेंट द्वारा लिंग या नस्लीय भेदभाव किया जाएगा। एक अध्ययन से यह संकेत मिला है लिंग-निर्धारण प्रशिक्षण डेटा का प्रयास करने में कठिनाई.

सरकारों द्वारा पक्षपातपूर्ण डेटा के साथ एक और मुख्य समस्या है गलत तरीके से कारावास में डालने का जोखिम, या इससे भी बदतर आपराधिकता भविष्यवाणी एल्गोरिदम जो अल्पसंख्यकों को लंबी जेल की सजा का प्रावधान करता है।

“आपको एल्गोरिदम द्वारा भेदभाव का सामना नहीं करना चाहिए और सिस्टम का उपयोग और डिजाइन न्यायसंगत तरीके से किया जाना चाहिए। एल्गोरिथम भेदभाव तब होता है जब स्वचालित प्रणालियाँ लोगों को उनकी जाति, रंग, जातीयता, लिंग (गर्भावस्था, प्रसव और संबंधित चिकित्सा स्थितियों, लिंग पहचान, इंटरसेक्स स्थिति और यौन अभिविन्यास सहित) धर्म, उम्र, के आधार पर अन्यायपूर्ण विभिन्न उपचार या प्रभावों में योगदान देती हैं। राष्ट्रीय मूल, विकलांगता, वयोवृद्ध स्थिति, आनुवंशिक जानकारी, या कानून द्वारा संरक्षित कोई अन्य वर्गीकरण। विशिष्ट परिस्थितियों के आधार पर, जैसे एल्गोरिथम भेदभाव कानूनी सुरक्षा का उल्लंघन कर सकता है। स्वचालित प्रणालियों के डिजाइनरों, डेवलपर्स और तैनातीकर्ताओं को व्यक्तियों और समुदायों को एल्गोरिथम भेदभाव से बचाने और न्यायसंगत तरीके से सिस्टम का उपयोग और डिजाइन करने के लिए सक्रिय और निरंतर उपाय करने चाहिए। इस सुरक्षा में सिस्टम डिज़ाइन के हिस्से के रूप में सक्रिय इक्विटी मूल्यांकन, प्रतिनिधि डेटा का उपयोग और जनसांख्यिकीय विशेषताओं के लिए प्रॉक्सी के खिलाफ सुरक्षा, डिजाइन और विकास में विकलांग लोगों के लिए पहुंच सुनिश्चित करना, पूर्व-तैनाती और चल रही असमानता परीक्षण और शमन, और स्पष्ट संगठनात्मक शामिल होना चाहिए। निरीक्षण. असमानता परीक्षण के परिणाम और शमन जानकारी सहित एल्गोरिदमिक प्रभाव मूल्यांकन के रूप में स्वतंत्र मूल्यांकन और सरल भाषा रिपोर्टिंग की जानी चाहिए और इन सुरक्षाओं की पुष्टि करने के लिए जब भी संभव हो सार्वजनिक किया जाना चाहिए।

यह ध्यान दिया जाना चाहिए कि जब एआई की बात आती है तो संयुक्त राज्य अमेरिका ने बहुत पारदर्शी दृष्टिकोण अपनाया है, ये ऐसी नीतियां हैं जो आम जनता की सुरक्षा के लिए बनाई गई हैं, ए चीन द्वारा अपनाए गए एआई दृष्टिकोण के स्पष्ट विपरीत.

3. डेटा गोपनीयता

यह डेटा गोपनीयता सिद्धांत वह है जो आबादी के सबसे बड़े हिस्से को प्रभावित करने की सबसे अधिक संभावना है। सिद्धांत का पहला भाग डेटा के संग्रह से संबंधित प्रतीत होता है, विशेष रूप से इंटरनेट पर एकत्र किए गए डेटा से, जो विशेष रूप से सोशल मीडिया प्लेटफार्मों के लिए एक ज्ञात समस्या है। फिर इसी डेटा का उपयोग विज्ञापन बेचने या इससे भी बदतर स्थिति में किया जा सकता है जनता की भावनाओं को बरगलाना और चुनावों को प्रभावित करना.

“आपको अंतर्निहित सुरक्षा के माध्यम से अपमानजनक डेटा प्रथाओं से बचाया जाना चाहिए और आपके बारे में डेटा का उपयोग कैसे किया जाता है, इस पर आपकी एजेंसी होनी चाहिए। आपको डिज़ाइन विकल्पों के माध्यम से गोपनीयता के उल्लंघन से बचाया जाना चाहिए जो सुनिश्चित करते हैं कि ऐसी सुरक्षा डिफ़ॉल्ट रूप से शामिल है, जिसमें यह सुनिश्चित करना शामिल है कि डेटा संग्रह उचित अपेक्षाओं के अनुरूप है, और केवल विशिष्ट संदर्भ के लिए आवश्यक डेटा ही एकत्र किया जाता है। स्वचालित प्रणालियों के डिजाइनरों, डेवलपर्स और तैनातीकर्ताओं को आपकी अनुमति लेनी चाहिए और आपके डेटा के संग्रह, उपयोग, पहुंच, स्थानांतरण और हटाने के संबंध में उचित तरीकों से और यथासंभव अधिकतम सीमा तक आपके निर्णयों का सम्मान करना चाहिए; जहां संभव न हो, डिज़ाइन सुरक्षा उपायों द्वारा वैकल्पिक गोपनीयता का उपयोग किया जाना चाहिए। सिस्टम को उपयोगकर्ता अनुभव और डिज़ाइन निर्णयों को नियोजित नहीं करना चाहिए जो उपयोगकर्ता की पसंद को अस्पष्ट करते हैं या उपयोगकर्ताओं पर गोपनीयता के लिए आक्रामक डिफ़ॉल्ट का बोझ डालते हैं। सहमति का उपयोग केवल उन मामलों में डेटा के संग्रह को उचित ठहराने के लिए किया जाना चाहिए जहां इसे उचित और सार्थक रूप से दिया जा सकता है। कोई भी सहमति अनुरोध संक्षिप्त होना चाहिए, सरल भाषा में समझने योग्य होना चाहिए, और आपको डेटा संग्रह और उपयोग के विशिष्ट संदर्भ पर एजेंसी प्रदान करनी चाहिए; डेटा के व्यापक उपयोग के लिए मौजूदा समझने में कठिन नोटिस-और-चयन प्रथाओं को बदला जाना चाहिए।

डेटा गोपनीयता सिद्धांत का दूसरा भाग सरकारों और उद्यमों दोनों की निगरानी से संबंधित प्रतीत होता है।

वर्तमान में, उद्यम कर्मचारियों की निगरानी और जासूसी करने में सक्षम हैं, कुछ मामलों में ऐसा हो सकता है कार्यस्थल सुरक्षा में सुधार, COVID-19 महामारी के दौरान मास्क पहनने को लागू करना था, अक्सर यह केवल यह निगरानी करने के लिए किया जाता है कि काम पर समय का उपयोग कैसे किया जा रहा है। इनमें से कई मामलों में कर्मचारियों को ऐसा लगता है कि उनकी स्वीकार्य सीमा से अधिक निगरानी और नियंत्रण किया जा रहा है।

“स्वास्थ्य, कार्य, शिक्षा, आपराधिक न्याय और वित्त सहित संवेदनशील डोमेन से संबंधित डेटा और निष्कर्षों के लिए बढ़ी हुई सुरक्षा और प्रतिबंध, और युवाओं से संबंधित डेटा के लिए आपको पहले स्थान पर रखना चाहिए। संवेदनशील डोमेन में, आपके डेटा और संबंधित निष्कर्षों का उपयोग केवल आवश्यक कार्यों के लिए किया जाना चाहिए, और आपको नैतिक समीक्षा और उपयोग निषेधों द्वारा संरक्षित किया जाना चाहिए। आपको और आपके समुदायों को अनियंत्रित निगरानी से मुक्त होना चाहिए; निगरानी प्रौद्योगिकियों को अधिक निगरानी के अधीन किया जाना चाहिए जिसमें गोपनीयता और नागरिक स्वतंत्रता की रक्षा के लिए उनके संभावित नुकसान और दायरे की सीमाओं का कम से कम पूर्व-तैनाती मूल्यांकन शामिल हो। सतत निगरानी और निगरानी का उपयोग शिक्षा, कार्य, आवास या अन्य संदर्भों में नहीं किया जाना चाहिए जहां ऐसी निगरानी प्रौद्योगिकियों के उपयोग से अधिकार, अवसर या पहुंच सीमित होने की संभावना है। जब भी संभव हो, आपके पास ऐसी रिपोर्टिंग तक पहुंच होनी चाहिए जो पुष्टि करती हो कि आपके डेटा निर्णयों का सम्मान किया गया है और आपके अधिकारों, अवसरों या पहुंच पर निगरानी प्रौद्योगिकियों के संभावित प्रभाव का आकलन प्रदान करता है।

इस बात पर ध्यान दिया जाना चाहिए कि लोगों की गोपनीयता की सुरक्षा के लिए AI का उपयोग किया जा सकता है.

4. सूचना और स्पष्टीकरण

यह उद्यमों के लिए हथियार तैनात करने का आह्वान होना चाहिए एआई एथिक्स सलाहकार बोर्ड, साथ ही विकास में तेजी लाने पर जोर दिया व्याख्या करने योग्य ए.आई.. यदि एआई मॉडल कोई गलती करता है तो समझाने योग्य एआई आवश्यक है, एआई कैसे काम करता है यह समझने से किसी समस्या का आसान निदान संभव हो जाता है।

व्याख्या योग्य एआई डेटा का उपयोग कैसे किया जा रहा है, और एआई द्वारा निर्णय क्यों लिया गया, इस बारे में जानकारी को पारदर्शी रूप से साझा करने की भी अनुमति देगा। व्याख्या योग्य एआई के बिना इन नीतियों का अनुपालन करना असंभव होगा गहन शिक्षण की ब्लैकबॉक्स समस्या.

जो उद्यम इन प्रणालियों को बेहतर बनाने पर ध्यान केंद्रित करते हैं, उन्हें गहन शिक्षण एल्गोरिदम द्वारा एक विशिष्ट निर्णय लेने के पीछे की बारीकियों और जटिलताओं को समझने से भी सकारात्मक लाभ मिलेगा।

“आपको पता होना चाहिए कि एक स्वचालित प्रणाली का उपयोग किया जा रहा है और यह समझना चाहिए कि यह आपको प्रभावित करने वाले परिणामों में कैसे और क्यों योगदान देता है। स्वचालित सिस्टम के डिजाइनरों, डेवलपर्स और तैनातीकर्ताओं को आम तौर पर सुलभ सरल भाषा दस्तावेज प्रदान करना चाहिए जिसमें समग्र सिस्टम कामकाज और भूमिका स्वचालन भूमिका के स्पष्ट विवरण शामिल हों, ध्यान दें कि ऐसे सिस्टम उपयोग में हैं, सिस्टम के लिए जिम्मेदार व्यक्ति या संगठन और स्पष्टीकरण ऐसे परिणाम जो स्पष्ट, समय पर और सुलभ हों। इस तरह के नोटिस को अद्यतन रखा जाना चाहिए और सिस्टम से प्रभावित लोगों को महत्वपूर्ण उपयोग के मामले या प्रमुख कार्यक्षमता परिवर्तनों के बारे में सूचित किया जाना चाहिए। आपको पता होना चाहिए कि आपको प्रभावित करने वाला परिणाम एक स्वचालित प्रणाली द्वारा कैसे और क्यों निर्धारित किया गया था, जिसमें यह भी शामिल है कि स्वचालित प्रणाली परिणाम निर्धारित करने वाला एकमात्र इनपुट नहीं है। स्वचालित सिस्टम को ऐसे स्पष्टीकरण प्रदान करने चाहिए जो आपके और किसी भी ऑपरेटर या अन्य लोगों के लिए तकनीकी रूप से मान्य, सार्थक और उपयोगी हों, जिन्हें सिस्टम को समझने की आवश्यकता है, और सामग्री के आधार पर जोखिम के स्तर के अनुसार कैलिब्रेट किया गया हो। ऐसी रिपोर्टिंग जिसमें सरल भाषा में इन स्वचालित प्रणालियों के बारे में सारांश जानकारी शामिल हो और नोटिस और स्पष्टीकरण की स्पष्टता और गुणवत्ता का आकलन जब भी संभव हो, सार्वजनिक किया जाना चाहिए।

5. मानवीय विकल्प, विचार और फ़ॉलबैक

उपरोक्त अधिकांश सिद्धांतों के विपरीत, यह सिद्धांत सरकारी संस्थाओं, या निजीकृत संस्थानों पर सबसे अधिक लागू होता है जो सरकार की ओर से काम करते हैं।

यहां तक ​​कि एआई एथिक्स बोर्ड और समझाने योग्य एआई के साथ भी जब जीवन दांव पर हो तो मानवीय समीक्षा पर वापस जाना महत्वपूर्ण है। त्रुटि की संभावना हमेशा बनी रहती है, और अनुरोध किए जाने पर किसी मामले की मानव समीक्षा करने से संभवतः ऐसी स्थिति से बचा जा सकता है एआई गलत लोगों को जेल भेज रहा है.

न्यायिक और आपराधिक प्रणाली में समाज के हाशिए पर रहने वाले सदस्यों को अपूरणीय क्षति पहुंचाने की सबसे अधिक गुंजाइश है और उन्हें इस सिद्धांत पर विशेष ध्यान देना चाहिए।

“आपको जहां उचित हो, वहां से बाहर निकलने में सक्षम होना चाहिए, और एक ऐसे व्यक्ति तक पहुंच होनी चाहिए जो आपके सामने आने वाली समस्याओं पर तुरंत विचार कर सके और उनका समाधान कर सके। जहां उपयुक्त हो, आपको मानवीय विकल्प के पक्ष में स्वचालित सिस्टम से बाहर निकलने में सक्षम होना चाहिए। किसी दिए गए संदर्भ में उचित अपेक्षाओं के आधार पर और व्यापक पहुंच सुनिश्चित करने और जनता को विशेष रूप से हानिकारक प्रभावों से बचाने पर ध्यान केंद्रित करते हुए उपयुक्तता निर्धारित की जानी चाहिए। कुछ मामलों में, कानून द्वारा एक मानवीय या अन्य विकल्प की आवश्यकता हो सकती है। यदि कोई स्वचालित प्रणाली विफल हो जाती है, कोई त्रुटि उत्पन्न होती है, या आप अपील करना चाहते हैं, या आप पर इसके प्रभाव का विरोध करना चाहते हैं, तो फ़ॉलबैक और एस्केलेशन समस्या से निपटने के लिए आपके पास समय पर मानवीय विचार और समाधान तक पहुंच होनी चाहिए। मानवीय विचार और फ़ॉलबैक सुलभ, न्यायसंगत, प्रभावी, बनाए रखा जाना चाहिए, उचित ऑपरेटर प्रशिक्षण के साथ, और जनता पर अनुचित बोझ नहीं डालना चाहिए। आपराधिक प्रणाली, रोजगार, शिक्षा और स्वास्थ्य सहित संवेदनशील डोमेन के भीतर इच्छित उपयोग के साथ स्वचालित सिस्टम को अतिरिक्त रूप से उद्देश्य के अनुरूप बनाया जाना चाहिए, निरीक्षण के लिए सार्थक पहुंच प्रदान करनी चाहिए, सिस्टम के साथ बातचीत करने वाले किसी भी व्यक्ति के लिए प्रशिक्षण शामिल करना चाहिए। , और प्रतिकूल या उच्च जोखिम वाले निर्णयों के लिए मानवीय विचार को शामिल करें। ऐसी रिपोर्टिंग जिसमें इन मानव शासन प्रक्रियाओं का विवरण और उनकी समयबद्धता, पहुंच, परिणाम और प्रभावशीलता का मूल्यांकन शामिल हो, जब भी संभव हो सार्वजनिक किया जाना चाहिए।

सारांश

ओएसटीपी को एक ऐसे ढांचे को पेश करने के प्रयास के लिए श्रेय दिया जाना चाहिए जो समाज के लिए आवश्यक सुरक्षा प्रोटोकॉल को पूरा करता है, बिना कठोर नीतियों को पेश किए जो मशीन लर्निंग के विकास में प्रगति में बाधा डाल सकती हैं।

सिद्धांतों की रूपरेखा तैयार होने के बाद, बिल उन मुद्दों के लिए एक तकनीकी साथी प्रदान करके जारी रहता है जिन पर चर्चा की जाती है और साथ ही प्रत्येक सिद्धांत के बारे में विस्तृत जानकारी और इन सिद्धांतों को लागू करने के लिए आगे बढ़ने के सर्वोत्तम तरीके भी प्रदान किए जाते हैं।

समझदार व्यापार मालिकों और उद्यमों को इस पर ध्यान देना चाहिए इस बिल का अध्ययन करें, क्योंकि इन नीतियों को जल्द से जल्द लागू करना ही फायदेमंद हो सकता है।

जैसा कि बिल के इस उद्धरण से देखा जा सकता है, व्याख्या योग्य एआई का महत्व बना रहेगा।

“संघीय सरकार में, एजेंसियां ​​व्याख्या योग्य एआई सिस्टम पर शोध कर रही हैं और उसका समर्थन कर रही हैं. एनआईएसटी एआई सिस्टम की व्याख्या पर मौलिक शोध कर रहा है। शोधकर्ताओं की एक बहु-विषयक टीम का लक्ष्य व्याख्या योग्य एआई के मूल सिद्धांतों के कार्यान्वयन का समर्थन करने के लिए माप विधियों और सर्वोत्तम प्रथाओं को विकसित करना है। डिफेंस एडवांस्ड रिसर्च प्रोजेक्ट्स एजेंसी के पास व्याख्या योग्य आर्टिफिशियल इंटेलिजेंस पर एक कार्यक्रम है जिसका उद्देश्य मशीन लर्निंग तकनीकों का एक सूट बनाना है जो उच्च स्तर के सीखने के प्रदर्शन (भविष्यवाणी सटीकता) को बनाए रखते हुए अधिक व्याख्या करने योग्य मॉडल तैयार करता है, और मानव उपयोगकर्ताओं को उचित रूप से समझने में सक्षम बनाता है। कृत्रिम रूप से बुद्धिमान साझेदारों की उभरती पीढ़ी पर भरोसा करें और उसे प्रभावी ढंग से प्रबंधित करें। आर्टिफिशियल इंटेलिजेंस में निष्पक्षता पर नेशनल साइंस फाउंडेशन के कार्यक्रम में समझाने योग्य एआई के लिए अनुसंधान नींव में एक विशिष्ट रुचि भी शामिल है।

जिस बात को नजरअंदाज नहीं किया जाना चाहिए, वह यह है कि अंततः यहां उल्लिखित सिद्धांत नए मानक बन जाएंगे।

Unity.AI का संस्थापक भागीदार और सदस्य फोर्ब्स प्रौद्योगिकी परिषद, एंटोनी एक है भविष्यवादी जो एआई और रोबोटिक्स के भविष्य को लेकर उत्साहित हैं।

के संस्थापक भी हैं सिक्योरिटीज.io, एक वेबसाइट जो विघटनकारी प्रौद्योगिकी में निवेश पर केंद्रित है।