рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рдпрджрд┐ рдЖрдкрдХрд╛ рдПрдЖрдИ рд╣реЙрд▓реБрд╕рд┐рдиреЗрдЯрд┐рдВрдЧ рдХрд░ рд░рд╣рд╛ рд╣реИ, рддреЛ рдПрдЖрдИ рдХреЛ рджреЛрд╖ рди рджреЗрдВ

एआई “हॉलुसिनेशन” – वे आश्वासन देने वाले लेकिन झूठे उत्तर – मीडिया का बहुत ध्यान आकर्षित करते हैं, जैसे कि हाल ही में न्यूयॉर्क टाइम्स के लेख में, एआई अधिक शक्तिशाली हो रहा है, लेकिन इसके हॉलुसिनेशन और भी बदतर हो रहे हैं। हॉलुसिनेशन एक वास्तविक खतरा है जब आप एक उपभोक्ता चैटबॉट के साथ काम कर रहे हों। एआई के व्यवसायिक अनुप्रयोगों के संदर्भ में, यह एक और भी गंभीर चिंता का विषय है। सौभाग्य से, एक व्यवसाय प्रौद्योगिकी नेता के रूप में, मेरे पास इसके नियंत्रण में अधिक नियंत्रण है। मैं सुनिश्चित कर सकता हूं कि एजेंट के पास एक अर्थपूर्ण उत्तर देने के लिए सही डेटा है।
क्योंकि यही वास्तविक समस्या है। व्यवसाय में, एआई हॉलुसिनेशन के लिए कोई बहाना नहीं है। एआई को दोष न दें। अपने आप को दोष दें कि आप एआई का सही तरीके से उपयोग नहीं कर रहे हैं।
जब जनरेटिव एआई टूल हॉलुसिनेटिंग करते हैं, तो वे वही कर रहे होते हैं जो वे करने के लिए डिज़ाइन किए गए हैं – उपलब्ध डेटा के आधार पर सबसे अच्छा उत्तर देने की कोशिश करें। जब वे कुछ बनाते हैं, तो एक उत्तर देते हैं जो वास्तविकता पर आधारित नहीं है, यह इसलिए है क्योंकि वे प्रासंगिक डेटा की कमी है, इसे नहीं ढूंढ सकते हैं, या प्रश्न को नहीं समझते हैं। हां, नए मॉडल जैसे ओपनएआई के ओ३ और ओ४-मिनी अधिक हॉलुसिनेटिंग कर रहे हैं, जब उन्हें प्रश्न का अच्छा उत्तर नहीं मिला है तो वे अधिक “रचनात्मक” हो जाते हैं। हां, अधिक शक्तिशाली टूल अधिक हॉलुसिनेटिंग कर सकते हैं – लेकिन वे अधिक शक्तिशाली और मूल्यवान परिणाम भी प्रदान कर सकते हैं यदि हम उन्हें सफलता के लिए सेट करते हैं।
यदि आप नहीं चाहते कि आपका एआई हॉलुसिनेटिंग करे, तो इसे डेटा से वंचित न करें। एआई को समस्या के लिए सबसे अच्छा और सबसे प्रासंगिक डेटा दें, और यह भटकने के लिए प्रेरित नहीं होगा।
इसके अलावा, जब भी आप किसी भी एआई टूल के साथ काम कर रहे हों, तो मैं अपनी महत्वपूर्ण सोच कौशल को बनाए रखने की सलाह देता हूं। एआई एजेंट द्वारा दिए गए परिणाम उत्पादक और आनंददायक हो सकते हैं, लेकिन बात यह है कि आपको अपना दिमाग बंद नहीं करना चाहिए और सॉफ्टवेयर को आपके लिए सभी सोच करने देना चाहिए। प्रश्न पूछते रहें। जब एआई एजेंट आपको एक उत्तर देता है, तो उस उत्तर को प्रश्न करना सुनिश्चित करें कि यह समझ में आता है और डेटा द्वारा समर्थित है। यदि ऐसा है, तो यह एक उत्साहजनक संकेत होना चाहिए कि इसके लिए आपका समय लेना उचित है।
जितना अधिक आप प्रश्न पूछेंगे, उतने ही बेहतर अंतर्दृष्टि आप प्राप्त करेंगे।
हॉलुसिनेशन क्यों होता है
यह कोई रहस्य नहीं है। एआई आपको धोखा देने की कोशिश नहीं कर रहा है। प्रत्येक बड़े भाषा मॉडल (एलएलएम) एआई मूल रूप से संभावना के आधार पर अगले शब्द या संख्या की भविष्यवाणी कर रहा है।
एक उच्च स्तर पर, यहाँ क्या हो रहा है वह यह है कि एलएलएम वाक्य और अनुच्छेद एक-एक शब्द के साथ जोड़ते हैं, अगले शब्द की भविष्यवाणी करते हैं जो वाक्य में होना चाहिए, इसके प्रशिक्षण डेटा में अरबों अन्य उदाहरणों के आधार पर। एलएलएम के पूर्वज (क्लिपी के अलावा) टेक्स्ट संदेशों और कंप्यूटर कोड के लिए ऑटोकम्प्लीट प्रॉम्प्ट, स्वचालित मानव भाषा अनुवाद टूल, और अन्य संभाव्य भाषाई प्रणाली थीं। बढ़ी हुई ब्रूट फोर्स कंप्यूट पावर के साथ, плюस इंटरनेट-स्तर की मात्रा में डेटा पर प्रशिक्षण, इन प्रणालियों ने “स्मार्ट” enough हो गईं कि वे चैट पर पूरी बातचीत कर सकती थीं, जैसा कि दुनिया ने चैटजीपीटी की शुरुआत के साथ सीखा।
एआई नaysayers का कहना है कि यह वास्तविक “बुद्धिमत्ता” के समान नहीं है, केवल सॉफ्टवेयर जो मानव बुद्धिमत्ता को छानने और पुनः प्रस्तुत करने में सक्षम है जो इसे खिलाया गया है। डेटा को सारांशित करने के लिए इसे एक लिखित रिपोर्ट में कहें, और यह अन्य लेखकों के समान डेटा को सारांशित करने के तरीके की नकल करता है।
मुझे लगता है कि यह एक अकादमिक तर्क है जब तक कि डेटा सही है और विश्लेषण उपयोगी है।
क्या होता है अगर एआई के पास डेटा नहीं है? यह खाली जगह भर देता है। कभी-कभी यह मजाकिया है। कभी-कभी यह एक पूरी गड़बड़ है।
जब एआई एजेंट बनाते हैं, तो यह 10 गुना जोखिम है। एजेंट को क्रियाशील अंतर्दृष्टि प्रदान करनी होती है, लेकिन वे रास्ते में अधिक निर्णय लेते हैं। वे मल्टी-स्टेप कार्यों को निष्पादित करते हैं, जहां चरण 1 का परिणाम चरण 2, 3, 4, 5, … 10 … 20 को सूचित करता है। यदि चरण 1 के परिणाम गलत हैं, तो त्रुटि को बढ़ाया जाएगा, जिससे चरण 20 पर आउटपुट और भी बदतर हो जाएगा। विशेष रूप से, एजेंट निर्णय ले सकते हैं और चरणों को छोड़ सकते हैं।
सही तरीके से किया गया, एजेंट व्यवसाय के लिए अधिक काम करते हैं जो उन्हें तैनात करते हैं। फिर भी, एआई उत्पाद प्रबंधकों के रूप में, हमें पहचानना होगा कि बड़े पुरस्कार के साथ जुड़े बड़े जोखिम को स्वीकार करना होगा।
जो हमारी टीम ने किया था। हमने जोखिम देखा और इसका सामना किया। हमने केवल एक फैंसी रोबोट नहीं बनाया; हमने सुनिश्चित किया कि यह सही डेटा पर चलता है। मुझे लगता है कि हमने यह सही किया:
- एजेंट को सही प्रश्न पूछने और सत्यापित करने के लिए बनाएं कि इसके पास सही डेटा है। एजेंट की प्रारंभिक डेटा इनपुट प्रक्रिया वास्तव में अधिक निर्धारित होनी चाहिए, कम “रचनात्मक”। आप चाहते हैं कि एजेंट कहे जब यह सही डेटा नहीं है और अगले चरण पर जारी न रखे, बल्कि डेटा बनाने के बजाय।
- अपने एजेंट के लिए एक प्लेबुक संरचित करें – सुनिश्चित करें कि यह हर बार एक नया योजना नहीं बनाता है, बल्कि एक अर्ध-संरचित दृष्टिकोण है। संरचना और संदर्भ डेटा संग्रह और विश्लेषण चरण में अत्यंत महत्वपूर्ण हैं। आप एजेंट को तब तक “रचनात्मक” होने दे सकते हैं जब यह तथ्यों को जानता है और सारांश लिखने के लिए तैयार है, लेकिन पहले तथ्यों को सही करें।
- एक उच्च गुणवत्ता वाला टूल बनाएं डेटा निकालने के लिए। यह केवल एक एपीआई कॉल से अधिक होना चाहिए। समय लें और कोड लिखें (लोग अभी भी ऐसा करते हैं) जो एकत्र किए जाने वाले डेटा की सही मात्रा और विविधता बनाता है, प्रक्रिया में गुणवत्ता जांच बनाता है।
- एजेंट को अपना काम दिखाएं। एजेंट को अपने स्रोतों का हवाला देना चाहिए और लिंक करना चाहिए जहां उपयोगकर्ता डेटा की पुष्टि कर सकता है, मूल स्रोत से, और इसे आगे अन्वेषण कर सकता है। कोई छल नहीं!
- गार्डरेल: सोचें कि क्या गलत हो सकता है, और उन त्रुटियों के खिलाफ सुरक्षा बनाएं जिन्हें आप绝 नहीं कर सकते हैं। हमारे मामले में, इसका अर्थ है कि जब एजेंट को बाजार का विश्लेषण करने का काम सौंपा जाता है और इसके पास डेटा नहीं है – जिसका अर्थ है हमारा सिमिलरवेब डेटा, किसी यादृच्छिक डेटा स्रोत से नहीं जो वेब से खींचा गया है – सुनिश्चित करना कि यह कुछ नहीं बनाता है एक आवश्यक गार्डरेल है। एजेंट के लिए यह बेहतर है कि यह उत्तर न दे कि यह एक झूठा या भ्रामक उत्तर दे।
हमने इन सिद्धांतों को अपने हालिया रिलीज में शामिल किया है हमारे तीन नए एजेंट, और अधिक का पालन करें। उदाहरण के लिए, हमारा एआई मीटिंग प्रीप एजेंट बिक्री के लोगों के लिए न केवल लक्ष्य कंपनी का नाम पूछता है, बल्कि बैठक के उद्देश्य और इसके साथ किसने विवरण पूछता है, इसे एक बेहतर उत्तर देने के लिए प्राइम करता है। यह अनुमान नहीं लगाता क्योंकि यह कंपनी डेटा, डिजिटल डेटा और कार्यकारी प्रोफाइल की एक बड़ी मात्रा का उपयोग करके अपनी सिफारिशों को सूचित करता है।
क्या हमारे एजेंट परिपूर्ण हैं? नहीं। कोई भी एआई को अभी तक परिपूर्ण नहीं बना रहा है, न ही दुनिया की सबसे बड़ी कंपनियां। लेकिन समस्या का सामना करना इसे अनदेखा करने से बहुत बेहतर है।
कम हॉलुसिनेशन चाहते हैं? अपने एआई को एक अच्छा हिस्सा दें उच्च गुणवत्ता वाले डेटा।
यदि यह हॉलुसिनेटिंग करता है, तो शायद यह एआई को ठीक करने की आवश्यकता नहीं है। शायद यह आपके दृष्टिकोण को ठीक करने की आवश्यकता है कि आप इन शक्तिशाली नई क्षमताओं का लाभ उठाएं, बिना उन्हें सही तरीके से प्राप्त करने के लिए समय और प्रयास लगाए।












