ठूंठ Google के ओपन सोर्स BERT मॉडल - Unite.AI के माध्यम से भाषा प्रसंस्करण को कैसे बढ़ाया जा रहा है
हमसे जुडे

Artificial Intelligence

Google के ओपन सोर्स BERT मॉडल के माध्यम से भाषा प्रसंस्करण को कैसे बढ़ाया जा रहा है

mm
Updated on
BERT खोज संवर्द्धन

ट्रांसफॉर्मर से द्विदिश एनकोडर प्रतिनिधित्व, अन्यथा BERT के रूप में जाना जाता है; एक प्रशिक्षण मॉडल है जिसने एनएलपी मॉडल की दक्षता और प्रभाव में काफी सुधार किया है। अब जब Google ने BERT मॉडल को खुला स्रोत बना दिया है तो यह सभी उद्योगों में NLP मॉडल में सुधार की अनुमति देता है। लेख में, हम देखेंगे कि कैसे BERT आज की दुनिया में NLP को सबसे शक्तिशाली और उपयोगी AI समाधानों में से एक बना रहा है। 

खोज के लिए BERT मॉडल लागू करना

Google का खोज इंजन प्रासंगिक सामग्री प्रस्तुत करने की अपनी क्षमता के लिए विश्व प्रसिद्ध है और उन्होंने इस प्राकृतिक भाषा प्रसंस्करण कार्यक्रम को दुनिया के लिए खुला स्रोत बना दिया है।

प्राकृतिक भाषा को पढ़ने और व्याख्या करने की एक प्रणाली की क्षमता अधिक से अधिक महत्वपूर्ण होती जा रही है क्योंकि दुनिया तेजी से नए डेटा का उत्पादन कर रही है। Google की शब्द अर्थों, वाक्यांशों और प्रासंगिक सामग्री प्रस्तुत करने की सामान्य क्षमता की लाइब्रेरी खुला स्रोत है। प्राकृतिक भाषा प्रसंस्करण से परे, उनके बीईआरटी मॉडल में बड़ी मात्रा में असंरचित डेटा से जानकारी निकालने की क्षमता है और इसे किसी भी पुस्तकालय के लिए खोज इंटरफेस बनाने के लिए लागू किया जा सकता है। इस लेख में हम देखेंगे कि इस तकनीक को ऊर्जा क्षेत्र में कैसे लागू किया जा सकता है। 

BERT (ट्रांसफॉर्मर्स से द्विदिश एनकोडर प्रतिनिधित्व) द्वारा प्रस्तावित एक पूर्व-प्रशिक्षण दृष्टिकोण है गूगल एआई भाषा समूह, प्रारंभिक एनएलपी मॉडल की एक सामान्य समस्या को दूर करने के लिए विकसित किया गया: पर्याप्त प्रशिक्षण डेटा की कमी।

आइए अधिक विस्तार में जाए बिना, विस्तार से बताएं:

प्रशिक्षण मॉडल

निम्न-स्तरीय (जैसे नामित इकाई पहचान, विषय विभाजन) और उच्च-स्तरीय (जैसे भावना विश्लेषण, वाक् पहचान) एनएलपी कार्यों के लिए कार्य-विशिष्ट एनोटेटेड डेटासेट की आवश्यकता होती है। हालांकि इन्हें प्राप्त करना कठिन है और इन्हें इकट्ठा करना महंगा है, लेबल किए गए डेटासेट उथले और गहरे तंत्रिका नेटवर्क मॉडल दोनों के प्रदर्शन में महत्वपूर्ण भूमिका निभाते हैं। उच्च-गुणवत्ता वाले अनुमान परिणाम केवल तभी प्राप्त किए जा सकते हैं जब लाखों या अरबों एनोटेटेड प्रशिक्षण उदाहरण उपलब्ध हों। और यह एक ऐसी समस्या थी जिसने कई एनएलपी कार्यों को अप्राप्य बना दिया था। ऐसा तब तक है जब तक BERT विकसित नहीं हुआ था।

BERT एक सामान्य प्रयोजन भाषा प्रतिनिधित्व मॉडल है, जो अघोषित पाठ के बड़े संग्रह पर प्रशिक्षित है। जब मॉडल बड़ी मात्रा में पाठ्य सामग्री के संपर्क में आता है, तो यह सीखता एक वाक्य में शब्दों के बीच संदर्भ और संबंधों को समझना। पिछले शिक्षण मॉडलों के विपरीत जो केवल शब्द स्तर पर अर्थ का प्रतिनिधित्व करते थे (बैंक "बैंक खाता" और "ग्रासी बैंक") में इसका मतलब समान होगा), बीईआरटी वास्तव में संदर्भ की परवाह करता है। अर्थात वाक्य में शब्द के पहले और बाद में क्या आता है। संदर्भ एनएलपी मॉडल की एक प्रमुख गायब क्षमता साबित हुआ, जिसका सीधा प्रभाव मॉडल के प्रदर्शन पर पड़ा। BERT जैसे संदर्भ-जागरूक मॉडल को डिज़ाइन करना कई लोगों द्वारा NLP में एक नए युग की शुरुआत के रूप में जाना जाता है।

बड़ी मात्रा में पाठ्य सामग्री पर प्रशिक्षण BERT एक ऐसी तकनीक है जिसे कहा जाता है पूर्व प्रशिक्षण. इसका मतलब यह है कि मॉडल के वजन को सामान्य पाठ समझने के कार्यों के लिए समायोजित किया जाता है और इसके शीर्ष पर अधिक बारीक मॉडल बनाए जा सकते हैं। लेखकों ने ऐसी तकनीक की श्रेष्ठता साबित की है जब उन्होंने 11 एनएलपी कार्यों पर बीईआरटी-आधारित मॉडलों को नियोजित किया और अत्याधुनिक परिणाम प्राप्त किए हैं।

पूर्व प्रशिक्षित मॉडल

सबसे अच्छी बात यह है: पूर्व-प्रशिक्षित BERT मॉडल खुले स्रोत और सार्वजनिक रूप से उपलब्ध हैं। इसका मतलब यह है कि कोई भी एनएलपी कार्यों से निपट सकता है और बीईआरटी के शीर्ष पर अपने मॉडल बना सकता है। उसे कोई हरा नहीं सकता, है ना? ओह, रुकिए: इसका मतलब यह भी है कि एनएलपी मॉडल को अब छोटे डेटासेट पर प्रशिक्षित (फाइन-ट्यून) किया जा सकता है, बिना शुरुआत से प्रशिक्षण की आवश्यकता के। सचमुच एक नये युग की शुरुआत।

ये पूर्व-प्रशिक्षित मॉडल कंपनियों को आंतरिक या बाह्य रूप से उपयोग किए जाने वाले एनएलपी मॉडल को तैनात करने की लागत और समय में कटौती करने में मदद करते हैं। वर्चुअल टीम-कल्चर बिल्डिंग कंपनी, Teambuilding.com के सीईओ माइकल एलेक्सिस ने अच्छी तरह से प्रशिक्षित एनएलपी मॉडल की प्रभावशीलता पर जोर दिया है। 

"एनएलपी का सबसे बड़ा लाभ सूचना का स्केलेबल और सुसंगत अनुमान और प्रसंस्करण है।" – के सीईओ माइकल एलेक्सिस टीमबिल्डिंग.कॉम

माइकल बताते हैं कि एनएलपी को आइसब्रेकर या सर्वेक्षण जैसे संस्कृति को बढ़ावा देने वाले कार्यक्रमों पर कैसे लागू किया जा सकता है। एक कंपनी कर्मचारियों की प्रतिक्रियाओं का विश्लेषण करके इस बारे में मूल्यवान जानकारी प्राप्त कर सकती है कि कंपनी की संस्कृति कैसी चल रही है। यह न केवल पाठ का विश्लेषण करके बल्कि पाठ की व्याख्या का विश्लेषण करके भी हासिल किया जाता है। अनिवार्य रूप से मॉडल भावना, अनुभव और समग्र दृष्टिकोण पर निष्कर्ष निकालने के लिए "पंक्तियों के बीच पढ़ता है"। बीईआरटी संकेतकों के आधार पर मॉडलों को पूर्व-प्रशिक्षित करके इस तरह की स्थितियों में सहायता कर सकता है, जिससे यह भाषा की बारीकियों को उजागर कर सकता है और अधिक सटीक अंतर्दृष्टि प्रदान कर सकता है।  

प्रश्नों में सुधार

संदर्भ को मॉडल करने की क्षमता ने BERT को एक NLP नायक में बदल दिया है और Google खोज में क्रांति ला दी है। नीचे Google खोज उत्पाद टीम और उनके परीक्षण अनुभवों का एक उद्धरण है, जब वे एक प्रश्न के पीछे के इरादे को समझने के लिए BERT को ट्यून कर रहे थे।

“यहां कुछ उदाहरण दिए गए हैं जो आपकी खोज के पीछे के इरादे को समझने की बीईआरटी की क्षमता को प्रदर्शित करते हैं। यहां "2019 में ब्राजील से यूएसए जाने वाले यात्री को वीजा की आवश्यकता है" की खोज की गई है। शब्द "टू" और क्वेरी में अन्य शब्दों के साथ इसका संबंध अर्थ को समझने के लिए विशेष रूप से महत्वपूर्ण है। यह एक ब्राज़ीलियाई व्यक्ति के अमेरिका की यात्रा के बारे में है, न कि इसके विपरीत। पहले, हमारे एल्गोरिदम इस कनेक्शन के महत्व को नहीं समझते थे, और हमने ब्राज़ील की यात्रा करने वाले अमेरिकी नागरिकों के बारे में परिणाम लौटाए थे। बीईआरटी के साथ, सर्च इस बारीकियों को समझने में सक्षम है और जानता है कि बहुत सामान्य शब्द "टू" वास्तव में यहां बहुत मायने रखता है, और हम इस क्वेरी के लिए बहुत अधिक प्रासंगिक परिणाम प्रदान कर सकते हैं।
- खोजों को पहले से बेहतर समझना, पांडु नायक, गूगल फेलो और सर्च के उपाध्यक्ष द्वारा।

बर्ट खोज उदाहरण

BERT खोज उदाहरण, पहले और बाद में। स्रोत ब्लॉग

हमारे अंतिम भाग में एनएलपी और ओसीआरहमने रियल-एस्टेट क्षेत्र में एनएलपी के कुछ उपयोगों का वर्णन किया है। हमने यह भी उल्लेख किया है कि कैसे "एनएलपी उपकरण आदर्श सूचना निष्कर्षण उपकरण हैं"। आइए ऊर्जा क्षेत्र को देखें और देखें कि कैसे BERT जैसी विघटनकारी एनएलपी प्रौद्योगिकियां नए एप्लिकेशन उपयोग के मामलों को सक्षम बनाती हैं। 

एनएलपी मॉडल बड़ी मात्रा में असंरचित डेटा से जानकारी निकाल सकते हैं

एनएलपी मॉडल का उपयोग करने का एक तरीका असंरचित पाठ डेटा से महत्वपूर्ण जानकारी निकालना है। ईमेल, जर्नल, नोट्स, लॉग और रिपोर्ट सभी टेक्स्ट डेटा स्रोतों के उदाहरण हैं जो व्यवसायों के दैनिक संचालन का हिस्सा हैं। इनमें से कुछ दस्तावेज़ परिचालन दक्षता बढ़ाने और लागत कम करने के संगठनात्मक प्रयासों में महत्वपूर्ण साबित हो सकते हैं। 

जब कार्यान्वयन का लक्ष्य हो पवन टरबाइन पूर्वानुमानित रखरखाव, विफलता रिपोर्ट में हो सकता है विभिन्न घटकों के व्यवहार के बारे में महत्वपूर्ण जानकारी। लेकिन चूंकि अलग-अलग पवन टरबाइन निर्माताओं के पास अलग-अलग डेटा संग्रह मानदंड हैं (यानी रखरखाव रिपोर्ट विभिन्न प्रारूपों और यहां तक ​​कि भाषाओं में भी आती हैं), मैन्युअल रूप से प्रासंगिक डेटा आइटम की पहचान करना संयंत्र मालिक के लिए महंगा हो सकता है। एनएलपी उपकरण असंरचित सामग्री से प्रासंगिक अवधारणाओं, विशेषताओं और घटनाओं को निकाल सकते हैं। फिर विभिन्न डेटा स्रोतों में सहसंबंध और पैटर्न खोजने के लिए टेक्स्ट एनालिटिक्स को नियोजित किया जा सकता है। इससे संयंत्र मालिकों को उनकी विफलता रिपोर्ट में पहचाने गए मात्रात्मक उपायों के आधार पर पूर्वानुमानित रखरखाव लागू करने का मौका मिलता है।

एनएलपी मॉडल प्राकृतिक भाषा खोज इंटरफेस प्रदान कर सकते हैं

इसी तरह, तेल और गैस कंपनियों के लिए काम करने वाले भू-वैज्ञानिकों को आमतौर पर पिछले ड्रिलिंग कार्यों, कुएं के लॉग और भूकंपीय डेटा से संबंधित कई दस्तावेजों की समीक्षा करने की आवश्यकता होती है। चूँकि ऐसे दस्तावेज़ भी विभिन्न स्वरूपों में आते हैं और आमतौर पर कई स्थानों (भौतिक और डिजिटल दोनों) में फैले होते हैं, वे गलत स्थानों पर जानकारी खोजने में बहुत समय बर्बाद करते हैं। ऐसे मामले में एक व्यवहार्य समाधान होगा एनएलपी-संचालित खोज इंटरफ़ेस, जो उपयोगकर्ताओं को प्राकृतिक भाषा में डेटा देखने की अनुमति देगा। फिर, एक एनएलपी मॉडल सैकड़ों दस्तावेज़ों में डेटा को सहसंबंधित कर सकता है और क्वेरी के उत्तरों का एक सेट लौटा सकता है। फिर कार्यकर्ता अपने विशेषज्ञ ज्ञान के आधार पर आउटपुट को मान्य कर सकते हैं और फीडबैक से मॉडल में और सुधार होगा। 

हालाँकि, ऐसे मॉडलों को तैनात करने के लिए तकनीकी विचार भी हैं। एक पहलू यह होगा कि उद्योग-विशिष्ट शब्दजाल पारंपरिक शिक्षण मॉडल को भ्रमित कर सकता है जिनमें उचित अर्थ संबंधी समझ नहीं होती है। दूसरे, मॉडल का प्रदर्शन प्रशिक्षण डेटासेट के आकार से प्रभावित हो सकता है। यह तब है जब BERT जैसे पूर्व-प्रशिक्षित मॉडल फायदेमंद साबित हो सकते हैं। प्रासंगिक अभ्यावेदन उपयुक्त शब्द अर्थ को मॉडल कर सकते हैं और उद्योग-विशिष्ट शब्दों के कारण होने वाले किसी भी भ्रम को दूर कर सकते हैं। पूर्व-प्रशिक्षित मॉडल का उपयोग करके, छोटे डेटासेट पर नेटवर्क को प्रशिक्षित करना संभव है। इससे समय, ऊर्जा और संसाधनों की बचत होती है जो अन्यथा शुरुआत से प्रशिक्षण के लिए आवश्यक होते।

आपके अपने व्यवसाय के बारे में क्या? 

क्या आप किसी एनएलपी कार्य के बारे में सोच सकते हैं जो लागत कम करने और परिचालन दक्षता बढ़ाने में आपकी मदद कर सकता है?

RSI ब्लू ऑरेंज डिजिटल डेटा विज्ञान टीम आपके लाभ के लिए BERT में भी बदलाव करके खुश है!

जोश मिरामैंट के सीईओ और संस्थापक हैं ब्लू ऑरेंज डिजिटल, न्यूयॉर्क शहर और वाशिंगटन डीसी में कार्यालयों के साथ एक शीर्ष क्रम की डेटा विज्ञान और मशीन लर्निंग एजेंसी। मिरामैंट एक लोकप्रिय वक्ता, भविष्यवादी और उद्यम कंपनियों और स्टार्टअप के लिए एक रणनीतिक व्यवसाय और प्रौद्योगिकी सलाहकार हैं। वह संगठनों को अपने व्यवसायों को अनुकूलित और स्वचालित करने, डेटा-संचालित विश्लेषणात्मक तकनीकों को लागू करने और कृत्रिम बुद्धिमत्ता, बड़े डेटा और इंटरनेट ऑफ थिंग्स जैसी नई तकनीकों के निहितार्थ को समझने में मदद करता है।