ठूंठ जिम्मेदार AI क्या है? सिद्धांत, चुनौतियाँ और लाभ - Unite.AI
हमसे जुडे
एआई मास्टरक्लास:

एआई 101

जिम्मेदार AI क्या है? सिद्धांत, चुनौतियाँ, और लाभ

mm
Updated on
खेतों में खड़ा एक व्यक्ति अपने हाथों में ग्लोब पकड़े हुए है।

जिम्मेदार ए.आई. (आरएआई) एआई सिस्टम को डिजाइन और तैनात करने से संबंधित है जो पारदर्शी, निष्पक्ष, जवाबदेह और नैतिक दिशानिर्देशों का पालन करता है। जैसे-जैसे एआई सिस्टम अधिक मजबूत और प्रचलित होते जा रहे हैं, यह सुनिश्चित करना कि उन्हें जिम्मेदारी से विकसित किया जाए और सुरक्षा और नैतिक दिशानिर्देशों का पालन करना आवश्यक है।

स्वास्थ्य, परिवहन, नेटवर्क प्रबंधन और निगरानी हैं सुरक्षा-महत्वपूर्ण एआई अनुप्रयोग जहां सिस्टम विफलता के गंभीर परिणाम हो सकते हैं। बड़ी कंपनियां जानती हैं कि प्रौद्योगिकी जोखिमों को कम करने के लिए आरएआई आवश्यक है। फिर भी एमआईटी स्लोअन/बीसीजी रिपोर्ट के अनुसार जिसमें 1093 उत्तरदाता शामिल थे, 54% तक कंपनियों में जिम्मेदार एआई विशेषज्ञता और प्रतिभा का अभाव था।

यद्यपि विचारशील नेताओं और संगठनों ने जिम्मेदार एआई के लिए सिद्धांत विकसित किए हैं, एआई सिस्टम का जिम्मेदार विकास सुनिश्चित करना अभी भी चुनौतियां पेश करता है। आइए इस विचार को विस्तार से जानें:

जिम्मेदार एआई के लिए 5 सिद्धांत

1. निष्पक्षता

प्रौद्योगिकीविदों को ऐसी प्रक्रियाएं डिज़ाइन करनी चाहिए ताकि एआई सिस्टम बिना किसी पूर्वाग्रह के सभी व्यक्तियों और समूहों के साथ उचित व्यवहार करें। इसलिए, उच्च जोखिम वाले निर्णय लेने वाले अनुप्रयोगों में निष्पक्षता प्राथमिक आवश्यकता है।

निष्पक्षता की तरह परिभाषित किया गया है:

"विभिन्न जनसांख्यिकीय समूहों पर प्रभाव की जांच करना और समूह निष्पक्षता की कई गणितीय परिभाषाओं में से एक को चुनना जो कानूनी, सांस्कृतिक और नैतिक आवश्यकताओं के वांछित सेट को पर्याप्त रूप से संतुष्ट करेगा।"

2। जवाबदेही

जवाबदेही का मतलब है कि एआई सिस्टम विकसित करने और तैनात करने वाले व्यक्तियों और संगठनों को अपने निर्णयों और कार्यों के लिए जिम्मेदार होना चाहिए। एआई सिस्टम तैनात करने वाली टीम को यह सुनिश्चित करना चाहिए कि उनका एआई सिस्टम पारदर्शी, व्याख्या योग्य, श्रवण योग्य है और समाज को नुकसान नहीं पहुंचाता है।

जवाबदेही शामिल है सात अवयव:

  1. संदर्भ (जिस उद्देश्य के लिए जवाबदेही आवश्यक है)
  2. रेंज (जवाबदेही का विषय)
  3. एजेंट (कौन जवाबदेह है?)
  4. फोरम (जिम्मेदार पक्ष को किसे रिपोर्ट करनी चाहिए)
  5. मानक (जवाबदेही के लिए मानदंड)
  6. प्रक्रिया (जवाबदेही की विधि)
  7. निहितार्थ (जवाबदेही के परिणाम)

3। ट्रांसपेरेंसी

पारदर्शिता का मतलब है कि एआई सिस्टम में निर्णय लेने के पीछे का कारण स्पष्ट और समझने योग्य है। पारदर्शी एआई सिस्टम समझाने योग्य हैं।

के अनुसार भरोसेमंद आर्टिफिशियल इंटेलिजेंस (ALTAI) के लिए मूल्यांकन सूची, पारदर्शिता के तीन प्रमुख तत्व हैं:

  1. ट्रैसेबिलिटी (डेटा, प्रीप्रोसेसिंग चरण और मॉडल पहुंच योग्य है)
  2. व्याख्यात्मकता (निर्णय लेने/भविष्यवाणी के पीछे का तर्क स्पष्ट है)
  3. खुला संचार (एआई प्रणाली की सीमा के संबंध में)

4। एकांत

गोपनीयता जिम्मेदार AI के मुख्य सिद्धांतों में से एक है। यह व्यक्तिगत जानकारी की सुरक्षा को संदर्भित करता है। यह सिद्धांत सुनिश्चित करता है कि लोगों की व्यक्तिगत जानकारी सहमति से एकत्र और संसाधित की जाती है और असंतुष्टों के हाथों से दूर रखी जाती है।

जैसा कि हाल ही में प्रमाणित हुआ, क्लियरव्यू का एक मामला था, एक कंपनी जो कानून प्रवर्तन और विश्वविद्यालयों के लिए चेहरे की पहचान मॉडल बनाती है। यूके के डेटा निगरानीकर्ता क्लियरव्यू एआई पर £7.5 मिलियन का मुकदमा दायर किया 20 बिलियन छवियों का डेटाबेस बनाने के लिए सहमति के बिना सोशल मीडिया से यूके के निवासियों की छवियां एकत्र करने के लिए।

5. सुरक्षा

सुरक्षा का अर्थ यह सुनिश्चित करना है कि एआई सिस्टम सुरक्षित हैं और समाज को खतरा नहीं पहुंचा रहे हैं। एआई सुरक्षा खतरे का एक उदाहरण है प्रतिकूल हमले. ये दुर्भावनापूर्ण हमले एमएल मॉडल को गलत निर्णय लेने के लिए प्रेरित करते हैं। जिम्मेदार AI के लिए AI सिस्टम को साइबर हमलों से बचाना अनिवार्य है।

जिम्मेदार AI की 4 प्रमुख चुनौतियाँ और जोखिम

1। पक्षपात

उम्र, लिंग, राष्ट्रीयता और नस्ल से संबंधित मानवीय पूर्वाग्रह डेटा संग्रह को प्रभावित कर सकते हैं, जिससे संभावित रूप से पक्षपाती एआई मॉडल बन सकते हैं। अमेरिकी वाणिज्य विभाग का अध्ययन पाया गया कि चेहरे की पहचान करने वाला AI रंग के लोगों की गलत पहचान करता है। इसलिए, कानून प्रवर्तन में चेहरे की पहचान के लिए एआई का उपयोग करने से गलत गिरफ्तारी हो सकती है। साथ ही, निष्पक्ष एआई मॉडल बनाना चुनौतीपूर्ण है क्योंकि ये मौजूद हैं 21 उन्हें परिभाषित करने के लिए विभिन्न पैरामीटर। तो, एक समझौता है; एक निष्पक्ष एआई पैरामीटर को संतुष्ट करने का अर्थ है दूसरे का त्याग करना।

2. व्याख्यात्मकता

जिम्मेदार एआई विकसित करने में व्याख्यात्मकता एक महत्वपूर्ण चुनौती है। इसका तात्पर्य यह समझने से है कि मशीन लर्निंग मॉडल एक विशेष निष्कर्ष पर कैसे पहुंचा है।

गहरे तंत्रिका नेटवर्क में व्याख्या की कमी होती है क्योंकि वे छिपे हुए न्यूरॉन्स की कई परतों के साथ ब्लैक बॉक्स के रूप में काम करते हैं, जिससे निर्णय लेने की प्रक्रिया को समझना मुश्किल हो जाता है। स्वास्थ्य देखभाल, वित्त आदि जैसे उच्च जोखिम वाले निर्णय लेने में यह एक चुनौती हो सकती है।

इसके अलावा, एमएल मॉडल में व्याख्या को औपचारिक बनाना चुनौतीपूर्ण है क्योंकि यह है आत्मनिष्ठ और डोमेन-विशिष्ट.

3। शासन

शासन नियमों, नीतियों और प्रक्रियाओं के एक समूह को संदर्भित करता है जो एआई सिस्टम के विकास और तैनाती की देखरेख करता है। हाल ही में, एआई शासन चर्चा में महत्वपूर्ण प्रगति हुई है, जिसमें संगठन रूपरेखा और नैतिक दिशानिर्देश प्रस्तुत कर रहे हैं।

के लिए नैतिकता दिशानिर्देश EU द्वारा भरोसेमंद AIऑस्ट्रेलियाई एआई एथिक्स फ्रेमवर्क, तथा ओईसीडी एआई सिद्धांत एआई शासन ढांचे के उदाहरण हैं।

लेकिन हाल के वर्षों में एआई में तेजी से प्रगति इन एआई शासन ढांचे को पीछे छोड़ सकती है। इसके लिए, एक ऐसे ढांचे की आवश्यकता है जो एआई सिस्टम की निष्पक्षता, व्याख्या और नैतिकता का आकलन करे।

4. नियमन

जैसे-जैसे एआई सिस्टम अधिक प्रचलित हो रहे हैं, नैतिक और सामाजिक मूल्यों पर विचार करने के लिए विनियमन की आवश्यकता है। ऐसा विनियमन विकसित करना जो एआई नवाचार को बाधित न करे, जिम्मेदार एआई में एक महत्वपूर्ण चुनौती है।

यहां तक ​​कि सामान्य डेटा संरक्षण विनियमन (जीडीपीआर), कैलिफोर्निया उपभोक्ता गोपनीयता अधिनियम (सीसीपीए), और व्यक्तिगत सूचना संरक्षण कानून (पीआईपीएल) को नियामक निकायों के रूप में रखते हुए भी, एआई शोधकर्ताओं ने पाया कि 97% तक यूरोपीय संघ की कुछ वेबसाइटें जीडीपीआर कानूनी ढांचे की आवश्यकताओं का अनुपालन करने में विफल हैं।

इसके अलावा, विधायकों को एक का सामना करना पड़ता है महत्वपूर्ण चुनौती एआई की परिभाषा पर आम सहमति तक पहुंचने में जिसमें शास्त्रीय एआई सिस्टम और नवीनतम एआई अनुप्रयोग दोनों शामिल हैं।

जिम्मेदार AI के 3 प्रमुख लाभ

1. पूर्वाग्रह में कमी

जिम्मेदार एआई निर्णय लेने की प्रक्रियाओं में पूर्वाग्रह को कम करता है, एआई सिस्टम में विश्वास पैदा करता है। एआई सिस्टम में पूर्वाग्रह को कम करने से एक निष्पक्ष और न्यायसंगत स्वास्थ्य देखभाल प्रणाली प्रदान की जा सकती है और एआई-आधारित में पूर्वाग्रह कम हो सकता है वित्तीय सेवाओं इत्यादि

2. बढ़ी हुई पारदर्शिता

जिम्मेदार AI पारदर्शी AI अनुप्रयोग बनाता है जो AI सिस्टम में विश्वास पैदा करता है। पारदर्शी एआई सिस्टम त्रुटि और दुरुपयोग का जोखिम कम करें. बढ़ी हुई पारदर्शिता एआई सिस्टम का ऑडिट करना आसान बनाती है, हितधारकों का विश्वास जीतती है और जवाबदेह एआई सिस्टम को जन्म दे सकती है।

3। बेहतर सुरक्षा

सुरक्षित एआई एप्लिकेशन डेटा गोपनीयता सुनिश्चित करते हैं, भरोसेमंद और हानिरहित आउटपुट देते हैं और साइबर हमलों से सुरक्षित होते हैं।

टेक दिग्गज पसंद हैं माइक्रोसॉफ्ट और गूगलजो एआई सिस्टम विकसित करने में सबसे आगे हैं, उन्होंने जिम्मेदार एआई सिद्धांत विकसित किए हैं। जिम्मेदार एआई यह सुनिश्चित करता है कि एआई में नवाचार व्यक्तियों और समाज के लिए हानिकारक नहीं है।

विचारशील नेताओं, शोधकर्ताओं, संगठनों और कानूनी अधिकारियों को एआई नवाचार के लिए एक सुरक्षित भविष्य सुनिश्चित करने के लिए जिम्मेदार एआई साहित्य को लगातार संशोधित करना चाहिए।

अधिक एआई-संबंधित सामग्री के लिए, यहां जाएं एकजुट.एआई.