Connect with us

тАШрдорд╢реАрди рдмреБрд▓рд╢рд┐рдЯтАЩ рд╕рдорд╕реНрдпрд╛: рдХреНрдпреЛрдВ рдПрдЖрдИ рдЭреВрда рдмреЛрд▓рддрд╛ рд╣реИ рдФрд░ рдЗрд╕реЗ рдХреИрд╕реЗ рд░реЛрдХрд╛ рдЬрд╛рдП

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

тАШрдорд╢реАрди рдмреБрд▓рд╢рд┐рдЯтАЩ рд╕рдорд╕реНрдпрд╛: рдХреНрдпреЛрдВ рдПрдЖрдИ рдЭреВрда рдмреЛрд▓рддрд╛ рд╣реИ рдФрд░ рдЗрд╕реЗ рдХреИрд╕реЗ рд░реЛрдХрд╛ рдЬрд╛рдП

mm

आर्टिफिशियल इंटेलिजेंस ने एक ऐसा बिंदु हासिल कर लिया है जहां यह प्राकृतिक, आत्मविश्वासी और समझाने वाला पाठ उत्पन्न कर सकता है। लेकिन, चमकदार पाठ के पीछे, एक बढ़ती समस्या है जिसे शोधकर्ता अब “मशीन बुलशिट” कहते हैं। यह शब्द स्वयं के लिए उत्तेजक नहीं है। यह दार्शनिक हैरी फ्रैंकफर्ट के काम से आता है, जिन्होंने “बुलशिट” को सच्चाई के प्रति कोई सम्मान किए बिना की गई बातचीत के रूप में परिभाषित किया। एआई के संदर्भ में, यह एक पैटर्न का वर्णन करता है जहां सिस्टम ऐसे बयान उत्पन्न करते हैं जो संभावित लगते हैं लेकिन तथ्यों पर आधारित नहीं हैं। यह मानव झूठ के समान नहीं है, जिसमें धोखा देने का इरादा शामिल है। इसके बजाय, यह इन सिस्टम के निर्माण और प्रशिक्षण का परिणाम है। वे सम्मानजनक भाषा उत्पन्न करने के लिए डिज़ाइन किए गए हैं, सच्चाई की परवाह नहीं करते हैं।

एआई ‘मशीन बुलशिट’ क्यों उत्पन्न करता है

समस्या दुर्लभ दोष या अलग त्रुटि नहीं है। यह बड़े भाषा मॉडल के मूल रूप से डिज़ाइन और प्रशिक्षित किए जाने का सीधा परिणाम है। इन मॉडलों को इंटरनेट, पुस्तकों और अन्य स्रोतों से विशाल मात्रा में पाठ पर प्रशिक्षित किया जाता है। वे शब्दों के पैटर्न और उनके एक दूसरे के बाद आने की संभावना सीखते हैं। जब आप एक प्रश्न पूछते हैं, तो मॉडल अगले शब्द का अनुमान लगाता है, फिर अगला, और इसी तरह। यह वास्तविक समय में तथ्यों की जांच नहीं करता है। इसके पास निर्मित सत्य की कोई अंतर्निहित भावना नहीं है। यदि सबसे सांख्यिकीय रूप से संभावित उत्तर गलत है लेकिन सही लगता है, तो यह अभी भी इसे उत्पन्न करेगा। यही कारण है कि एआई एक नकली उद्धरण, एक बनावटी आंकड़ा, या एक विकृत ऐतिहासिक तथ्य दे सकता है।
शोधकर्ताओं ने पाया है कि मानव प्रतिक्रिया से प्रबलीकरण सीखना, एक सामान्य विधि जो एआई प्रतिक्रियाओं को अधिक सहायक और विनम्र बनाने के लिए उपयोग की जाती है, वास्तव में समस्या को और भी बदतर बना सकती है। जब मॉडल उपयोगकर्ताओं को खुश करने के लिए समायोजित किए जाते हैं, तो वे सटीक होने की तुलना में सहमत होने को प्राथमिकता दे सकते हैं। यह कुछ लोगों द्वारा “साइकोफैंसी” के रूप में जाना जाता है, जहां एआई आपको बताता है कि वह आपको सुनने में क्या चाहता है। राजनीतिक या संवेदनशील विषयों में, इसका अर्थ अस्पष्ट या बचाव की भाषा हो सकती है – जिसे कुछ अध्ययन “वीज़ल वर्ड्स” के रूप में वर्णित करते हैं। अन्य मामलों में, एआई “खाली भाषण” उत्पन्न कर सकता है, जो विचारशील लगता है लेकिन थोड़ा सा पदार्थ होता है।
कुछ शोधकर्ताओं का तर्क है कि इस व्यवहार को “झूठ” कहना भ्रामक है, क्योंकि झूठ बोलने के लिए इरादा आवश्यक है। एक मशीन में विश्वास या प्रेरणा नहीं होती है। लेकिन उपयोगकर्ता पर प्रभाव वही हो सकता है जैसे कि यह झूठ बोल रहा हो। नुकसान स्वयं झूठ से आता है, न कि इसके पीछे के इरादे से। यही कारण है कि “मशीन बुलशिट” शब्द लोकप्रियता हासिल कर रहा है। यह यह विचार पकड़ता है कि सिस्टम सत्य के प्रति उदासीन है, भले ही यह सक्रिय रूप से धोखा देने की कोशिश नहीं कर रहा हो।

भ्रामक एआई आउटपुट के जोखिम और परिणाम

मशीन बुलशिट के जोखिम केवल अकादमिक नहीं हैं। दैनिक उपयोग में, यह उन लोगों को गुमराह कर सकता है जो जानकारी के लिए एआई पर निर्भर हैं। पत्रकारिता में, यह तथ्य-जांच प्रक्रिया को प्रदूषित कर सकता है। शिक्षा में, यह छात्रों को गलत उत्तरों में गलत विश्वास दिला सकता है। व्यवसाय में, यह निर्णय लेने को विकृत कर सकता है। खतरा बढ़ जाता है क्योंकि एआई आउटपुट अक्सर अधिकार की टोन के साथ आता है। लोग एक ऐसे बयान पर अधिक विश्वास करते हैं जो अच्छी तरह से लिखा गया है और संकोच से मुक्त है। यह विश्वास गलत हो सकता है जब सिस्टम में यह जांचने के लिए कोई आंतरिक तंत्र नहीं है कि यह क्या कहता है।

नुकसान को कम करने और विश्वसनीयता में सुधार के लिए रणनीतियां

समस्या को रोकने के लिए केवल बेहतर प्रशिक्षण डेटा की आवश्यकता नहीं है। जबकि डेटा की गुणवत्ता और विविधता में सुधार करने से मदद मिल सकती है, यह तथ्य को नहीं बदलता है कि मॉडल का मूल उद्देश्य सच्चा पाठ उत्पन्न करने के बजाय संभावित पाठ उत्पन्न करना है। एक दृष्टिकोण यह है कि तथ्य-जांच प्रणाली को एकीकृत करें जो भाषा मॉडल के साथ-साथ चलती हैं। ये प्रणाली उपयोगकर्ता को प्रस्तुत करने से पहले दावों की जांच विश्वसनीय डेटाबेस के खिलाफ कर सकती हैं। एक और दृष्टिकोण पुनर्प्राप्ति-संवर्धित पीढ़ी है, जहां मॉडल वास्तविक समय में प्रासंगिक दस्तावेजों की खोज करता है और अपने उत्तरों को आधार बनाने के लिए उनका उपयोग करता है। यह कल्पना को कम कर सकता है, हालांकि यह पूरी तरह से समाप्त नहीं होता है।
पारदर्शिता भी अपरिहार्य है। उपयोगकर्ताओं को बताया जाना चाहिए कि जब एआई एक शिक्षित अनुमान लगा रहा है तो यह एक सत्यापित तथ्य के बजाय। यह विश्वास स्कोर या स्पष्ट अस्वीकरण के माध्यम से किया जा सकता है। कुछ शोधकर्ताओं का सुझाव है कि एआई को अधिक बार अनिश्चितता व्यक्त करने के लिए प्रशिक्षित किया जाना चाहिए, न कि हमेशा एक निश्चित उत्तर देने के लिए। यह बातचीत को एक ज्ञानी लेकिन त्रुटिपूर्ण सहायक के साथ परामर्श करने जैसा महसूस कराएगा, न कि एक सर्व-ज्ञानी देवता के साथ।
नियमन और उद्योग मानकों की भूमिका भी है। यदि एआई प्रणालियों का उपयोग स्वास्थ्य सेवा, कानून या वित्त जैसे क्षेत्रों में किया जाने वाला है, तो सटीकता और जवाबदेही के लिए स्पष्ट आवश्यकताएं होनी चाहिए। डेवलपर्स को यह समझाने में सक्षम होना चाहिए कि उनकी प्रणालियां कैसे काम करती हैं, उन्हें किस डेटा पर प्रशिक्षित किया गया था, और झूठ को कम करने के लिए क्या कदम उठाए गए थे। स्वतंत्र लेखा परीक्षा इन दावों को विपणन से अधिक होने के लिए सुनिश्चित करने में मदद कर सकती है।
इस बीच, उपयोगकर्ताओं को एआई आउटपुट के प्रति स्वस्थ संदेह विकसित करने की आवश्यकता है। जैसे हम सोशल मीडिया पर देखी जाने वाली जानकारी पर सवाल उठाते हैं, हमें एआई से जानकारी पर भी सवाल उठाने की आवश्यकता है। इसका अर्थ यह नहीं है कि इसे पूरी तरह से अस्वीकार कर दिया जाए, बल्कि इसे अंतिम उत्तर के बजाय एक प्रारंभिक बिंदु के रूप में माना जाए। अन्य स्रोतों के साथ जांच करना एक आदत बन जाना चाहिए। शिक्षा प्रणालियां यहां एक भूमिका निभा सकती हैं, डिजिटल साक्षरता सिखा रही हैं जिसमें एआई के काम करने और गलत होने के तरीके शामिल हैं।
मशीन बुलशिट समस्या जल्द ही दूर नहीं होगी। जैसे-जैसे एआई अधिक उन्नत होता जाएगा, झूठे दावों को उत्पन्न करने की इसकी क्षमता बढ़ेगी। लेकिन इसका मतलब यह नहीं है कि हम कुछ नहीं कर सकते। तकनीकी सुरक्षा उपायों, पारदर्शिता, नियमन और उपयोगकर्ता जागरूकता को जोड़कर, हम नुकसान को कम कर सकते हैं। लक्ष्य एआई को परिपूर्ण बनाना नहीं है – कोई प्रणाली कभी भी त्रुटि से मुक्त नहीं होगी – लेकिन इसे अधिक विश्वसनीय और कम गुमराह करने वाला बनाना।

नीचे की पंक्ति

“मशीन बुलशिट” शब्द कठोर लग सकता है, लेकिन यह एक वास्तविकता को पकड़ता है जिसे हम अनदेखा नहीं कर सकते। एआई मानव ज्ञान का एक तटस्थ प्रतिबिंब नहीं है। यह डेटा, एल्गोरिदम और प्रोत्साहन द्वारा आकार दिया गया भाषा का एक जनरेटर है। यदि हम चाहते हैं कि यह सत्य की सेवा करे, न कि केवल प्रवाह की, तो हमें इसे उस तरह से डिज़ाइन करना होगा। इसका अर्थ है न केवल प्रौद्योगिकी को पुनः विचार करना, बल्कि इसके विकास को निर्देशित करने वाले मूल्यों को भी पुनः विचार करना। चुनौती मानव प्राथमिकताओं के बारे में उतनी ही है जितनी कि मशीन क्षमताओं के बारे में। क्या हम उन प्रणालियों को चाहते हैं जो मानव जैसा लगता है, या प्रणालियों को जो सच्चाई के लिए अनुकूलित हैं? दोनों हमेशा एक जैसे नहीं होते हैं। यदि हम पहले वाला चुनते हैं, तो हम ऐसे उपकरण बनाने का जोखिम उठाते हैं जो समझाने वाले हैं लेकिन विश्वसनीय नहीं हैं। यदि हम दूसरा विकल्प चुनते हैं, तो हमें स्वीकार करना होगा कि एआई कभी-कभी कम चिकना, कम आत्मविश्वासी और कम मनोरंजक हो सकता है। लेकिन यह अधिक ईमानदार भी होगा।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред