Connect with us

рдПрдЖрдИ рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдХреЗ рд▓рд┐рдП рдЕрдиреБрд╕рдВрдзрд╛рди рдХрд╛ рдореБрджреНрд░реАрдХрд░рдг: рдЬреЛрдЦрд┐рдо рдФрд░ рд╕рд░реНрд╡реЛрддреНрддрдо рдЕрднреНрдпрд╛рд╕

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдПрдЖрдИ рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдХреЗ рд▓рд┐рдП рдЕрдиреБрд╕рдВрдзрд╛рди рдХрд╛ рдореБрджреНрд░реАрдХрд░рдг: рдЬреЛрдЦрд┐рдо рдФрд░ рд╕рд░реНрд╡реЛрддреНрддрдо рдЕрднреНрдпрд╛рд╕

mm

जैसे-जैसे उत्पन्न करने वाले एआई की मांग बढ़ रही है, उच्च-गुणवत्ता वाले डेटा की भूख भी बढ़ रही है जिसका उपयोग इन प्रणालियों को प्रशिक्षित करने के लिए किया जा सकता है। विद्वान प्रकाशकों ने बड़े भाषा मॉडल (एलएलएम) के लिए प्रशिक्षण डेटा प्रदान करने के लिए अपनी अनुसंधान सामग्री को मुद्रीकृत करना शुरू कर दिया है। जबकि यह विकास प्रकाशकों के लिए एक नया राजस्व स्ट्रीम बना रहा है और वैज्ञानिक खोजों के लिए उत्पन्न करने वाले एआई को सशक्त बना रहा है, यह अनुसंधान की अखंडता और विश्वसनीयता के बारे में महत्वपूर्ण प्रश्न उठाता है। यह एक महत्वपूर्ण प्रश्न उठाता है: क्या बेचे जाने वाले डेटासेट विश्वसनीय हैं, और इस प्रथा का वैज्ञानिक समुदाय और उत्पन्न करने वाले एआई मॉडल पर क्या प्रभाव पड़ता है?

मुद्रीकृत अनुसंधान सौदों का उदय

प्रमुख अकादमिक प्रकाशक, जिनमें विली, टेलर और फ्रांसिस, और अन्य शामिल हैं, ने रिपोर्ट की है कि वे उत्पन्न करने वाले एआई मॉडल विकसित करने वाली प्रौद्योगिकी कंपनियों को अपनी सामग्री लाइसेंस देने से महत्वपूर्ण राजस्व अर्जित कर रहे हैं। उदाहरण के लिए, विली ने इस वर्ष अकेले ऐसे सौदों से 40 मिलियन डॉलर से अधिक की कमाई का खुलासा किया है। इन समझौतों के माध्यम से एआई कंपनियां विविध और व्यापक वैज्ञानिक डेटासेट तक पहुंच सकती हैं, जो कथित तौर पर उनके एआई टूल्स की गुणवत्ता में सुधार करती हैं।
प्रकाशकों का पिच सीधा है: लाइसेंसिंग बेहतर एआई मॉडल सुनिश्चित करती है, जो समाज को लाभान्वित करती है और लेखकों को रॉयल्टी के साथ पुरस्कृत करती है। यह व्यवसाय मॉडल प्रौद्योगिकी कंपनियों और प्रकाशकों दोनों के लिए लाभदायक है। हालांकि, वैज्ञानिक ज्ञान को मुद्रीकृत करने की बढ़ती प्रवृत्ति जोखिमों से भरी हुई है, मुख्य रूप से जब संदेहास्पद अनुसंधान एआई प्रशिक्षण डेटासेट में प्रवेश करता है।

बोगस अनुसंधान का साया

विद्वान समुदाय अवैध अनुसंधान के मुद्दों से अनजान नहीं है। अध्ययन सुझाव देते हैं कि कई प्रकाशित निष्कर्ष त्रुटिपूर्ण, पूर्वाग्रहपूर्ण या बस अविश्वसनीय हैं। 2020 के एक सर्वेक्षण में पाया गया कि लगभग आधे शोधकर्ताओं ने डेटा रिपोर्टिंग या क्षेत्र अध्ययनों के खराब डिजाइन जैसे मुद्दों की सूचना दी। 2023 में, 10,000 से अधिक पत्र झूठे या अविश्वसनीय परिणामों के कारण वापस ले लिए गए, एक संख्या जो हर साल बढ़ रही है। विशेषज्ञों का मानना है कि यह आंकड़ा एक बर्फ के टुकड़े की नोक का प्रतिनिधित्व करता है, जिसमें कई संदेहास्पद अध्ययन वैज्ञानिक डेटाबेस में प्रसारित हो रहे हैं।
संकट मुख्य रूप से “पेपर मिल” द्वारा संचालित किया गया है, जो छाया संगठन हैं जो अक्सर अकादमिक दबावों के प्रतिक्रियास्वरूप काल्पनिक अध्ययन उत्पन्न करते हैं, विशेष रूप से चीन, भारत और पूर्वी यूरोप जैसे क्षेत्रों में। अनुमान है कि लगभग 2% वैश्विक स्तर पर पत्रिका प्रस्तुतियां पेपर मिल्स से आती हैं। ये नकली पत्र वास्तविक अनुसंधान की तरह दिख सकते हैं लेकिन कल्पित डेटा और आधारहीन निष्कर्षों से भरे हुए हैं। चिंताजनक बात यह है कि ऐसे पत्र समीक्षा से गुजरते हैं और सम्मानित पत्रिकाओं में समाप्त हो जाते हैं, वैज्ञानिक अंतर्दृष्टि की विश्वसनीयता को खतरे में डालते हैं। उदाहरण के लिए, कोविड-19 महामारी के दौरान, त्रुटिपूर्ण अध्ययन ने आइवरमेक्टिन की प्रभावशीलता को कोविड-19 के इलाज के रूप में गलत तरीके से सुझाया, जिससे भ्रम पैदा हुआ और प्रभावी सार्वजनिक स्वास्थ्य प्रतिक्रिया में देरी हुई। यह उदाहरण अस्थिर अनुसंधान के प्रसार के संभावित नुकसान को रेखांकित करता है, जहां त्रुटिपूर्ण परिणाम महत्वपूर्ण प्रभाव डाल सकते हैं।

एआई प्रशिक्षण और विश्वास पर परिणाम

जब एलएलएम त्रुटिपूर्ण या कम गुणवत्ता वाले अनुसंधान वाले डेटाबेस पर प्रशिक्षित होते हैं, तो इसके परिणाम गहरे होते हैं। एआई मॉडल अपने प्रशिक्षण डेटा के भीतर पैटर्न और संबंधों का उपयोग आउटपुट उत्पन्न करने के लिए करते हैं। यदि इनपुट डेटा दूषित है, तो आउटपुट असंगतता को बनाए रख सकते हैं या thậmाल बढ़ा सकते हैं। यह जोखिम विशेष रूप से चिकित्सा जैसे क्षेत्रों में उच्च है, जहां एआई द्वारा उत्पन्न गलत अंतर्दृष्टि जानलेवा परिणाम पैदा कर सकती है।
इसके अलावा, यह मुद्दा अकादमिक और एआई दोनों में जनता के विश्वास को खतरे में डालता है। जैसे ही प्रकाशक समझौतों को जारी रखते हैं, उन्हें डेटा की गुणवत्ता के बारे में चिंताओं को संबोधित करना होगा जो बेची जा रही है। ऐसा न करने पर यह वैज्ञानिक समुदाय की प्रतिष्ठा को नुकसान पहुंचा सकता है और एआई के संभावित सामाजिक लाभों को कमजोर कर सकता है।

एआई के लिए विश्वसनीय डेटा सुनिश्चित करना

त्रुटिपूर्ण अनुसंधान के जोखिम को कम करने के लिए जो एआई प्रशिक्षण को बाधित कर सकता है, प्रकाशकों, एआई कंपनियों, डेवलपर्स, शोधकर्ताओं और व्यापक समुदाय के बीच संयुक्त प्रयास की आवश्यकता है। प्रकाशकों को अपनी समीक्षा प्रक्रिया में सुधार करना होगा ताकि वे प्रशिक्षण डेटासेट में प्रवेश करने से पहले अविश्वसनीय अध्ययनों को पकड़ सकें। समीक्षकों के लिए बेहतर पुरस्कार प्रदान करना और उच्च मानक निर्धारित करना मदद कर सकता है। एक खुली समीक्षा प्रक्रिया यहां महत्वपूर्ण है। यह पारदर्शिता और जिम्मेदारी लाता है, जो अनुसंधान में विश्वास बनाने में मदद करता है।
एआई कंपनियों को यह सुनिश्चित करने के लिए अधिक सावधानी बरतनी होगी कि वे एआई प्रशिक्षण के लिए अनुसंधान स्रोत करते समय किसके साथ काम करती हैं। प्रकाशकों और पत्रिकाओं का चयन करना जो उच्च गुणवत्ता वाले अनुसंधान के लिए एक मजबूत प्रतिष्ठा रखते हैं, महत्वपूर्ण है। इस संदर्भ में, एक प्रकाशक के ट्रैक रिकॉर्ड पर करीब से देखना उचित है – जैसे कि वे कितनी बार पत्र वापस लेते हैं या अपनी समीक्षा प्रक्रिया के बारे में कितने खुले हैं। चयनात्मक होने से डेटा की विश्वसनीयता में सुधार होता है और एआई और अनुसंधान समुदायों के पारस्परिक विश्वास का निर्माण होता है।

एआई डेवलपर्स को यह सुनिश्चित करने के लिए जिम्मेदारी लेनी होगी कि वे किस डेटा का उपयोग करते हैं। इसका अर्थ है विशेषज्ञों के साथ काम करना, सावधानी से शोध करना और कई अध्ययनों के परिणामों की तुलना करना। एआई टूल्स स्वयं भी संदिग्ध डेटा की पहचान करने और संदेहास्पद अनुसंधान के आगे प्रसार के जोखिम को कम करने के लिए डिज़ाइन किए जा सकते हैं।

पारदर्शिता भी एक महत्वपूर्ण कारक है। प्रकाशकों और एआई कंपनियों को यह साझा करना चाहिए कि अनुसंधान का उपयोग कैसे किया जाता है और रॉयल्टी कहां जाती है। जनरेटिव एआई लाइसेंसिंग समझौता ट्रैकर जैसे टूल Promising दिखाई देते हैं लेकिन व्यापक अपनाने की आवश्यकता है। शोधकर्ताओं को यह तय करने में कहना चाहिए कि उनका काम कैसे उपयोग किया जाता है। ऑप्ट-इन नीतियां, जैसे कि कैम्ब्रिज यूनिवर्सिटी प्रेस से, लेखकों को उनके योगदान पर नियंत्रण प्रदान करते हैं। यह विश्वास बनाता है, न्याय सुनिश्चित करता है, और लेखकों को इस प्रक्रिया में सक्रिय रूप से भाग लेने के लिए प्रोत्साहित करता है।

इसके अलावा, एआई विकास में समावेशिता और न्याय सुनिश्चित करने के लिए उच्च गुणवत्ता वाले शोध के लिए खुले पहुंच को प्रोत्साहित किया जाना चाहिए। सरकारें, गैर-लाभकारी संस्थाएं और उद्योग के खिलाड़ी महत्वपूर्ण प्रशिक्षण डेटासेट के लिए खुले पहुंच पहलों को वित्तपोषित कर सकते हैं, जो वाणिज्यिक प्रकाशकों पर निर्भरता को कम करते हैं। इसके अलावा, एआई उद्योग को डेटा को नैतिक रूप से स्रोत करने के लिए स्पष्ट नियमों की आवश्यकता है। विश्वसनीय, अच्छी तरह से समीक्षा किए गए शोध पर ध्यान केंद्रित करके, हम बेहतर एआई टूल्स बना सकते हैं, वैज्ञानिक अखंडता की रक्षा कर सकते हैं, और विज्ञान और प्रौद्योगिकी में जनता के विश्वास को बनाए रख सकते हैं।

नीचे की पंक्ति

एआई प्रशिक्षण के लिए अनुसंधान का मुद्रीकरण दोनों अवसर और चुनौतियां प्रस्तुत करता है। जबकि अकादमिक सामग्री को लाइसेंस देने से अधिक शक्तिशाली एआई मॉडल विकसित करने की अनुमति मिलती है, यह डेटा की अखंडता और विश्वसनीयता के बारे में चिंताओं को भी उठाता है। त्रुटिपूर्ण अनुसंधान, जिसमें “पेपर मिल्स” से अनुसंधान भी शामिल है, एआई प्रशिक्षण डेटासेट को दूषित कर सकता है, जिससे असंगतता उत्पन्न हो सकती है जो जनता के विश्वास और एआई के संभावित लाभों को कमजोर कर सकती है। एआई मॉडल को विश्वसनीय डेटा पर बनाने के लिए, प्रकाशकों, एआई कंपनियों, और डेवलपर्स को मिलकर समीक्षा प्रक्रिया में सुधार करने, पारदर्शिता बढ़ाने और उच्च गुणवत्ता वाले, अच्छी तरह से जांचे गए शोध को प्राथमिकता देने की आवश्यकता है। ऐसा करके, हम एआई के भविष्य को सुरक्षित कर सकते हैं और वैज्ञानिक समुदाय की अखंडता को बनाए रख सकते हैं।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред