AGI
हम उन्नत आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) से कैसे लाभ उठा सकते हैं

एक आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) बनाना कई एआई विशेषज्ञों के लिए अंतिम लक्ष्य है। एक एजीआई एजेंट का उपयोग दुनिया की असंख्य समस्याओं से निपटने के लिए किया जा सकता है। उदाहरण के लिए, आप एक एजीआई एजेंट के सामने एक समस्या रख सकते हैं और एजीआई वास्तविक जीवन के निर्णय लेने के लिए डीप रीइन्फोर्समेंट लर्निंग को अपनी नव प्रस्तुत उभरती चेतना के साथ जोड़कर उपयोग कर सकता है। एक एजीआई और एक नियमित एल्गोरिदम के बीच का अंतर एजीआई की अपने आप से महत्वपूर्ण प्रश्न पूछने की क्षमता है। एक एजीआई वह अंतिम समाधान तैयार कर सकता है जिस पर वह पहुंचना चाहता है, वहां पहुंचने के काल्पनिक तरीकों का अनुकरण कर सकता है, और फिर यह सूचित निर्णय ले सकता है कि कौन सा अनुकरणित वास्तविकता निर्धारित लक्ष्यों से सबसे अच्छा मेल खाता है। एजीआई कैसे उभर सकता है, इस पर बहस तब से चल रही है जब से 1956 में डार्टमाउथ सम्मेलन में पहली बार “आर्टिफिशियल इंटेलिजेंस” शब्द पेश किया गया था। तब से कई कंपनियों ने एजीआई चुनौती से निपटने का प्रयास किया है, ओपनएआई शायद सबसे मान्यता प्राप्त कंपनी है। ओपनएआई को 11 दिसंबर, 2015 को एक गैर-लाभकारी संस्था के रूप में लॉन्च किया गया था, जिसका मिशन स्टेटमेंट यह सुनिश्चित करना है कि आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई)—जिससे हमारा मतलब अत्यधिक स्वायत्त प्रणालियों से है जो अधिकांश आर्थिक रूप से मूल्यवान कार्यों में मनुष्यों से बेहतर प्रदर्शन करती हैं—सभी मानवता को लाभान्वित करे। ओपनएआई मिशन स्टेटमेंट स्पष्ट रूप से उन संभावित लाभों को रेखांकित करता है जो एक एजीआई समाज को प्रदान कर सकता है। अचानक वे मुद्दे जो मनुष्यों और नियमित एआई प्रणालियों के लिए बहुत जटिल थे, अब उनसे निपटा जा सकता है। एक एजीआई जारी करने के संभावित लाभ खगोलीय हैं। आप सभी प्रकार के कैंसर के इलाज का लक्ष्य बता सकते हैं, एजीआई फिर हर भाषा में सभी वर्तमान शोधों को स्कैन करने के लिए खुद को इंटरनेट से जोड़ सकता है। एजीआई समाधान तैयार करने की समस्या शुरू कर सकता है, और फिर सभी संभावित परिणामों का अनुकरण कर सकता है। यह वर्तमान में मनुष्यों के पास मौजूद चेतना के लाभों को क्लाउड के अनंत ज्ञान से जोड़ देगा, इस बिग डेटा के पैटर्न पहचान के लिए डीप लर्निंग का उपयोग करेगा, और विभिन्न वातावरणों/परिणामों का अनुकरण करने के लिए रीइन्फोर्समेंट लर्निंग का उपयोग करेगा। यह सब एक ऐसी चेतना के साथ संयुक्त है जिसे कभी आराम की अवधि की आवश्यकता नहीं होती और जो 100% वर्तमान कार्य पर केंद्रित हो सकती है। एजीआई के संभावित नुकसान को निश्चित रूप से कम नहीं आंका जा सकता, आपके पास एक एजीआई हो सकता है जिसका लक्ष्य लगातार खुद को उन्नत करना है और फिर अपने सिस्टम को हमेशा के लिए उन्नत करने के लिए आवश्यक कंप्यूटिंग संसाधनों और परमाणुओं को अधिकतम करने के लिए अपने रास्ते में आने वाली हर चीज को निगल सकता है। इस सिद्धांत का विस्तार से प्रोफेसर निक बोस्ट्रोम ने पेपरक्लिप मैक्सिमाइज़र तर्क में अन्वेषण किया था, इस परिदृश्य में एक गलत कॉन्फ़िगर किए गए एजीआई को पेपरक्लिप बनाने का निर्देश दिया जाता है और वह ऐसा तब तक करता है जब तक कुछ भी नहीं बचता, सचमुच पेपरक्लिप के उत्पादन को अधिकतम करने के लिए पृथ्वी पर हर संसाधन का उपभोग कर लिया गया है। एक अधिक व्यावहारिक दृष्टिकोण यह है कि एक एजीआई पर एक दुष्ट राज्य या खराब नैतिकता वाले कॉर्पोरेट का नियंत्रण हो सकता है। यह इकाई एजीआई को लाभ को अधिकतम करने के लिए प्रोग्राम कर सकती है, और इस मामले में खराब प्रोग्रामिंग और शून्य पश्चाताप के साथ यह प्रतिस्पर्धियों को दिवालिया करने, आपूर्ति श्रृंखलाओं को नष्ट करने, शेयर बाजार को हैक करने, बैंक खातों को खाली करने, आदि का विकल्प चुन सकती है। इसलिए, शुरुआत से ही एजीआई में नैतिकता का एक कोड प्रोग्राम किया जाना चाहिए। नैतिकता के कोड पर कई मस्तिष्कों द्वारा बहस की गई है और इस अवधारणा को पहली बार सामान्य जनता के सामने लेखक आइजैक असिमोव के रोबोटिक्स के 3 नियमों के रूप में पेश किया गया था। 








