рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдирдП рдПрдЖрдИ рдлреЗрд╕рд┐рдпрд▓ рд░рд┐рдХрдЧреНрдирд┐рд╢рди рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдиреЗ рдПрдХ рдХрджрдо рдЖрдЧреЗ рдмрдврд╝рд╛рдпрд╛

यह लगता है कि फेसियल रिकग्निशन टेक्नोलॉजी में आर्टिफिशियल इंटेलिजेंस का उपयोग अब तक सबसे अधिक बढ़ा है। जैसा कि ZDNet नोट करता है, अब तक कंपनियों जैसे Microsoft ने पहले से ही फेसियल रिकग्निशन टेक्नोलॉजी विकसित की है जो भावना टूल्स का उपयोग करके फेसियल एक्सप्रेशन (FR) को पहचान सकती है। लेकिन सीमित कारक यह रहा है कि ये टूल्स आठ, så-कॉल्ड कोर स्टेट्स – क्रोध, तिरस्कार, डर, घृणा, खुशी, दुख, आश्चर्य या तटस्थता तक सीमित थे।
अब जापानी टेक डेवलपर Fujitsu ने एआई-आधारित तकनीक के साथ कदम रखा है जो फेसियल रिकग्निशन को एक कदम आगे ले जाती है और व्यक्त की गई भावनाओं को ट्रैक करती है।
मौजूदा फेसियल रिकग्निशन टेक्नोलॉजी जेडडीनेट के अनुसार, “विभिन्न एक्शन यूनिट्स (एयू) की पहचान पर आधारित है – अर्थात, विशिष्ट चेहरे की मांसपेशियों की गतिविधियाँ जो विशिष्ट भावनाओं से जुड़ी होती हैं।” एक दिए गए उदाहरण में, “यदि दोनों एयू ‘चीक रेज़र’ और एयू ‘लिप कॉर्नर पुलर’ एक साथ पहचाने जाते हैं, तो एआई यह निष्कर्ष निकाल सकता है कि जिस व्यक्ति का विश्लेषण किया जा रहा है वह खुश है।
जैसा कि फुजित्सु के प्रवक्ता ने समझाया, “वर्तमान तकनीक के साथ समस्या यह है कि एआई को प्रत्येक एयू के लिए विशाल डेटासेट पर प्रशिक्षित करने की आवश्यकता है। यह जानने की आवश्यकता है कि कैसे एक एयू को सभी संभावित कोणों और स्थितियों से पहचानें। लेकिन हमारे पास इसके लिए पर्याप्त छवियाँ नहीं हैं – इसलिए यह आमतौर पर इतनी सटीक नहीं है।”
भावनाओं का पता लगाने में एआई को प्रभावी बनाने के लिए एक बड़ी मात्रा में डेटा की आवश्यकता है, यह वर्तमान में उपलब्ध फेसियल रिकग्निशन के लिए वास्तव में यह पहचानना बहुत मुश्किल है कि जिस व्यक्ति की जाँच की जा रही है वह क्या महसूस कर रहा है। और यदि व्यक्ति कैमरे के सामने बैठा नहीं है और सीधे इसकी ओर नहीं देख रहा है, तो कार्य और भी कठिन हो जाता है। कई विशेषज्ञों ने हाल के शोध में इन समस्याओं की पुष्टि की है।
फुजित्सु दावा करता है कि उसने भावनाओं का पता लगाने में फेसियल रिकग्निशन परिणामों की गुणवत्ता बढ़ाने का समाधान खोजा है। एआई को प्रशिक्षित करने के लिए एक बड़ी संख्या में छवियों का उपयोग करने के बजाय, उनके द्वारा बनाई गई नई टूल का कार्य “एक तस्वीर से अधिक डेटा निकालना” है। कंपनी इसे ‘सामान्यीकरण प्रक्रिया’ कहती है, जिसमें “एक विशिष्ट कोण से ली गई तस्वीरों को फ्रंटल शॉट जैसी छवियों में परिवर्तित करना शामिल है।”
जैसा कि प्रवक्ता ने समझाया, “एक ही सीमित डेटासेट के साथ, हम अधिक एयू का पता लगा सकते हैं, यहां तक कि तिरछे कोण से ली गई तस्वीरों में भी, और अधिक एयू के साथ, हम जटिल भावनाओं की पहचान कर सकते हैं, जो वर्तमान में विश्लेषण की जाने वाली मूल अभिव्यक्तियों से अधिक सूक्ष्म हैं।”
कंपनी दावा करती है कि अब यह “भावनात्मक परिवर्तनों का पता लगा सकती है, जैसे कि घबराहट वाली हंसी, 81% की पहचान सटीकता दर के साथ, जो ‘मानक मूल्यांकन विधियों’ के माध्यम से निर्धारित की गई थी।” तुलना में, स्वतंत्र शोध के अनुसार, माइक्रोसॉफ्ट टूल्स की सटीकता दर 60% है, और तिरछे कोण से ली गई तस्वीरों के साथ काम करते समय भावनाओं का पता लगाने में समस्याएं थीं।
संभावित अनुप्रयोगों के रूप में, फुजित्सु उल्लेख करता है कि इसके नए टूल्स का उपयोग, अन्य बातों के अलावा, सड़क सुरक्षा के लिए किया जा सकता है “ड्राइवरों के एकाग्रता में भी छोटे परिवर्तनों का पता लगाकर।”












