სტუბი სახის ამოცნობის ხელოვნური ინტელექტის ახალი ტექნოლოგია ერთი ნაბიჯით წინ მიდის - Unite.AI
დაკავშირება ჩვენთან ერთად

ხელოვნური ინტელექტი

სახის ამოცნობის ხელოვნური ინტელექტის ახალი ტექნოლოგია ერთი ნაბიჯით წინ მიდის

mm
განახლებულია on

როგორც ჩანს, ხელოვნური ინტელექტის გამოყენება სახის ამოცნობის ტექნოლოგიაში არის ის, რაც აქამდე ყველაზე შორს გაიზარდა. როგორც იქნებით აქტიური ფორუმში შენიშვნები, ჯერჯერობით კომპანიებს მოსწონთ microsoft უკვე შეიმუშავეს სახის ამოცნობის ტექნოლოგია, რომელსაც შეუძლია ამოიცნოს სახის გამომეტყველება (FR) ემოციური საშუალებების გამოყენებით. მაგრამ შეზღუდვის ფაქტორი აქამდე იყო ის, რომ ეს ხელსაწყოები შემოიფარგლებოდა რვა, ე.წ.  ბრაზი, ზიზღი, შიში, ზიზღი, ბედნიერება, სევდა, გაოცება ან ნეიტრალური. 

ახლა ნაბიჯები იაპონური ტექნიკური დეველოპერი Fujitsu, ხელოვნური ინტელექტის ბაზაზე დაფუძნებული ტექნოლოგიით, რომელიც სახის ამოცნობას კიდევ ერთი ნაბიჯით აშორებს გამოხატულ ემოციებს თვალყურის დევნებაში.

არსებული FR ტექნოლოგია დაფუძნებულია, როგორც ZDNet განმარტავს, „iსხვადასხვა მოქმედების ერთეულების (AUs) ამოცნობა - ეს არის სახის კუნთების გარკვეული მოძრაობები, რომელსაც ჩვენ ვაკეთებთ და რომელიც შეიძლება დაკავშირებული იყოს კონკრეტულ ემოციებთან. მოცემულ მაგალითში, „თუ AU „ლოყების ამწე“ და AU „ტუჩის კუთხის ამომჭერი“ ერთად იდენტიფიცირებულია, AI-ს შეუძლია დაასკვნას, რომ ადამიანი, რომელსაც ის აანალიზებს, ბედნიერია.

როგორც Fujitsu-ს წარმომადგენელმა განმარტა, „ამჟამინდელი ტექნოლოგიის პრობლემა ის არის, რომ AI უნდა გაიაროს ტრენინგი თითოეული AU-სთვის უზარმაზარ მონაცემთა ნაკრებებზე. მან უნდა იცოდეს როგორ ამოიცნოს AU ყველა შესაძლო კუთხიდან და პოზიციიდან. მაგრამ ჩვენ არ გვაქვს საკმარისი სურათები ამისთვის - ასე რომ, ჩვეულებრივ, ეს არც ისე ზუსტია.

დიდი რაოდენობით მონაცემებია საჭირო იმისთვის, რომ ხელოვნური ინტელექტის მომზადება ეფექტური იყოს ემოციების გამოვლენაში, ამჟამად ხელმისაწვდომი FR-ისთვის ძალიან რთულია იმის აღიარება, თუ რას გრძნობს გამოკვლეული ადამიანი. და თუ ადამიანი არ ზის კამერის წინ და პირდაპირ მასში არ იყურება, ამოცანა კიდევ უფრო რთული ხდება. ბევრმა ექსპერტმა დაადასტურა ეს პრობლემები ზოგიერთში ბოლო კვლევა.

Fujitsu ამტკიცებს, რომ მან იპოვა გამოსავალი სახის ამოცნობის შედეგების ხარისხის გასაუმჯობესებლად ემოციების გამოვლენაში. იმის ნაცვლად, რომ გამოიყენონ სურათების დიდი რაოდენობა ხელოვნური ინტელექტის მოსამზადებლად, მათ ახლად შექმნილ ინსტრუმენტს აქვს დავალება:ამოიღეთ მეტი მონაცემები ერთი სურათიდან. კომპანია ამ პროცესს „ნორმალიზების პროცესს“ უწოდებს, რომელიც გულისხმობს „კონვერტირებას კონკრეტული კუთხიდან გადაღებული სურათების სურათებად, რომლებიც წააგავს ფრონტალურ კადრს“.

როგორც პრესსპიკერმა განმარტა, „იგივე შეზღუდული მონაცემთა ნაკრებით, ჩვენ შეგვიძლია უკეთ აღმოვაჩინოთ მეტი AU, თუნდაც ირიბი კუთხიდან გადაღებულ სურათებში, და მეტი AU-ებით, ჩვენ შეგვიძლია ამოვიცნოთ რთული ემოციები, რომლებიც უფრო დახვეწილია, ვიდრე ამჟამად გაანალიზებული ძირითადი გამონათქვამები.

კომპანია აცხადებს, რომ ახლა მას შეუძლია ”აღმოაჩინე ემოციური ცვლილებები ისეთივე დახვეწილი, როგორც ნერვული სიცილი, ამოცნობის სიზუსტით 81%, რიცხვი, რომელიც განისაზღვრა „სტანდარტული შეფასების მეთოდებით“. შედარებისთვის, მიხედვით დამოუკიდებელი კვლევა, Microsoft-ის ხელსაწყოებს აქვთ 60% სიზუსტის მაჩვენებელი და ასევე ჰქონდათ პრობლემები ემოციების გამოვლენისას, როდესაც ის მუშაობდა უფრო დახრილი კუთხიდან გადაღებულ სურათებთან.

როგორც პოტენციური აპლიკაციები, Fujitsu აღნიშნავს, რომ მისი ახალი ხელსაწყოები შეიძლება გამოყენებულ იქნას, სხვა საკითხებთან ერთად, საგზაო უსაფრთხოებისთვის.მძღოლების კონცენტრაციაში თუნდაც მცირე ცვლილებების გამოვლენით“.

ყოფილი დიპლომატი და თარჯიმანი გაეროს, ამჟამად თავისუფალი ჟურნალისტი/მწერალი/მკვლევარი, რომელიც ორიენტირებულია თანამედროვე ტექნოლოგიებზე, ხელოვნურ ინტელექტსა და თანამედროვე კულტურაზე.