Connect with us

वाइब कोडिंग तब पीड़ित होती है जब एआई की भूमिका बढ़ जाती है

Anderson का एंगल

वाइब कोडिंग तब पीड़ित होती है जब एआई की भूमिका बढ़ जाती है

mm
An AI-generated stock-style image depicting a human Caucasian male and a larger glossy humanoid robot attempting to collaborate on a document; but the aggressive robot is causing the annoyed man to be sidelined. GPT-5 Image + Photoshop enhancement.

एक नए अध्ययन में पाया गया है कि वाइब कोडिंग में सुधार होता है जब मनुष्य निर्देश देते हैं, लेकिन गिरावट आती है जब एआई ऐसा करता है, और सबसे अच्छा हाइब्रिड सेटअप मनुष्यों को सबसे पहले रखता है, एआई को मध्यस्थ या निर्णायक के रूप में रखता है।

 

संयुक्त राज्य अमेरिका से नए शोध में, जिसमें यह देखा गया है कि जब एआई सिस्टम वाइब कोडिंग को निर्देशित करने की अनुमति दी जाती है, तो लार्ज लैंग्वेज मॉडल बड़ी भूमिका निभाते हैं, तो परिणाम लगभग हमेशा खराब होते हैं।

हालांकि शोधकर्ताओं ने अपने मानव/एआई सहयोगी प्रयोगों के लिए जीपीटी-5 का उपयोग किया था, बाद में उन्होंने पुष्टि की कि क्लाउड ओपस 4.5 और गूगल जेमिनी 3 प्रो भी बढ़ती जिम्मेदारियों के साथ समान गिरावट के पैटर्न के अधीन थे, यह कहते हुए कि ‘सीमित मानव भागीदारी लगातार प्रदर्शन में सुधार करती है’:

‘[मानव] पुनरावृत्तियों में से प्रत्येक में उच्च-स्तरीय मार्गदर्शन प्रदान करते हैं, [जबकि] एआई मार्गदर्शन अक्सर प्रदर्शन पतन की ओर ले जाता है। इसके अलावा, हम पाते हैं कि एक सावधानी से भूमिका आवंटन जो मानवों को दिशा के प्रभारी रखता है और मूल्यांकन को एआई में स्थानांतरित करता है, हाइब्रिड प्रदर्शन में सुधार कर सकता है।’

एक नियंत्रित प्रायोगिक ढांचे का निर्माण किया गया था जो एक पुनरावृत्त कोडिंग कार्य के आसपास बनाया गया था, जिसमें एक संदर्भ छवि – जिसमें एक बिल्ली, कुत्ता, बाघ, पक्षी, हाथी, पेंगुइन, शार्क, ज़ेब्रा, गिरगिट, या पांडा की फोटो शामिल थी – को एसवीजी का उपयोग करके पुनः बनाना था, और उस पुनर्निर्माण का मूल्यांकन संदर्भ छवि के खिलाफ किया जाना था जिससे यह प्राप्त किया गया था:

<img class=" wp-image-254921" src="https://www.unite.ai/wp-content/uploads/2026/02/validation-rating-interface.jpg" alt="मानव और एआई प्रतिभागियों को एक फोटोग्राफिक संदर्भ छवि के साथ-साथ एक एआई-जनरेटेड एसवीजी पुनर्निर्माण दिखाया गया था, और उन्हें सात-बिंदु स्केल पर दोनों के बीच कितनी समानता थी, यह दर्ज करने के लिए कहा गया था। स्रोत – https://arxiv.org/pdf/2602.10473” width=”942″ height=”561″ /> मानव और एआई प्रतिभागियों को एक फोटोग्राफिक संदर्भ छवि के साथ-साथ एक एआई-जनरेटेड एसवीजी पुनर्निर्माण दिखाया गया था, और उन्हें सात-बिंदु स्केल पर दोनों के बीच कितनी समानता थी, यह दर्ज करने के लिए कहा गया था। स्रोत

प्रत्येक राउंड में, एक एजेंट ने कोड जनरेटर को मार्गदर्शन करने के लिए उच्च-स्तरीय प्राकृतिक भाषा निर्देश प्रदान किया, और दूसरे ने तय किया कि नई संस्करण को रखना है या पिछले एक पर वापस जाना है – एक संरचित लूप जो वास्तविक सहयोगी कार्य प्रवाह को दर्शाता है।

सोलह प्रयोगों में, 604 प्रतिभागियों और हजारों एपीआई कॉल के साथ, पूरी तरह से मानव-नेतृत्व वाले परीक्षण राउंड की तुलना पूरी तरह से एआई-नेतृत्व वाले राउंड से की गई, अन्यथा समान शर्तों के तहत।

विभिन्न मानव/एआई सहयोग प्रतिशत और प्रकारों द्वारा प्राप्त विविध समाधान (स्रोत पत्र में एक बड़े चित्रण से लिया गया है, जिसे हम पाठक को संदर्भित करते हैं)

विभिन्न मानव/एआई सहयोग प्रतिशत और प्रकारों द्वारा प्राप्त विविध समाधान (स्रोत पत्र में एक बड़े चित्रण से लिया गया है, जिसे हम पाठक को संदर्भित करते हैं)

हालांकि मानव और एआई ने परीक्षणों की शुरुआत में समान स्तर पर प्रदर्शन किया, समय के साथ उनके पथ अलग हो गए: जब मानव निर्देश देते थे और चयन निर्णय लेते थे, तो समानता स्कोर पुनरावृत्तियों में बढ़ता गया, प्रत्येक राउंड में स्थिर संचयी सुधार के साथ; लेकिन जब एआई सिस्टम दोनों भूमिकाएं निभाते थे, तो प्रदर्शन में कोई सुसंगत लाभ नहीं होता था, और अक्सर पुनरावृत्तियों में गिरावट आती थी – भले ही एक ही अंतर्निहित मॉडल का उपयोग कोड जनरेशन के लिए किया गया था, और एआई के पास मानव प्रतिभागियों के समान जानकारी तक पहुंच थी।

… (बाकी सामग्री यहां जारी है)

मशीन लर्निंग पर लेखक, मानव इमेज सिंथेसिस में डोमेन विशेषज्ञ। मेटाफिजिक.एआई में अनुसंधान सामग्री के पूर्व प्रमुख।
व्यक्तिगत साइट: martinanderson.ai
संपर्क: [email protected]
ट्विटर: @manders_ai