Connect with us

Công Nghệ Nhận Dạng Khuôn Mặt AI Mới Đi Một Bước Tiến

Trí tuệ nhân tạo

Công Nghệ Nhận Dạng Khuôn Mặt AI Mới Đi Một Bước Tiến

mm

Có vẻ như việc sử dụng trí tuệ nhân tạo trong công nghệ nhận dạng khuôn mặt là một trong những lĩnh vực đã phát triển xa nhất cho đến nay. Như ZDNet lưu ý, cho đến nay, các công ty như Microsoft đã phát triển công nghệ nhận dạng khuôn mặt có thể nhận dạng biểu cảm khuôn mặt (FR) với sự giúp đỡ của các công cụ cảm xúc. Nhưng yếu tố hạn chế cho đến nay là những công cụ này chỉ giới hạn ở tám trạng thái cốt lõi – tức giận, khinh thường, sợ hãi, ghê tởm, hạnh phúc, buồn, ngạc nhiên hoặc trung lập.

Giờ đây, nhà phát triển công nghệ Nhật Bản Fujitsu đã bước vào với công nghệ dựa trên AI giúp theo dõi cảm xúc được thể hiện một bước tiến hơn.

Công nghệ FR hiện tại dựa trên việc “xác định các đơn vị hành động (AUs) khác nhau – tức là các chuyển động cơ khuôn mặt mà chúng ta thực hiện và có thể liên kết với các cảm xúc cụ thể.” Trong một ví dụ cụ thể, “nếu cả AU ‘nâng má’ và AU ‘kéo góc môi’ được xác định cùng nhau, AI có thể kết luận rằng người đang được phân tích là hạnh phúc.

Như một người phát ngôn của Fujitsu giải thích, “vấn đề với công nghệ hiện tại là AI cần được đào tạo trên các tập dữ liệu lớn cho mỗi AU. Nó cần biết cách nhận dạng một AU từ tất cả các góc và vị trí có thể. Nhưng chúng tôi không có đủ hình ảnh cho điều đó – vì vậy thông thường, nó không chính xác.”

Một lượng lớn dữ liệu cần thiết để đào tạo AI hiệu quả trong việc phát hiện cảm xúc, điều này rất khó đối với FR hiện tại để thực sự nhận ra cảm xúc của người được kiểm tra. Và nếu người đó không ngồi trước máy ảnh và nhìn thẳng vào nó, nhiệm vụ trở nên thậm chí còn khó hơn. Nhiều chuyên gia đã xác nhận những vấn đề này trong một số nghiên cứu gần đây.

Fujitsu tuyên bố đã tìm ra giải pháp để tăng chất lượng kết quả nhận dạng khuôn mặt trong việc phát hiện cảm xúc. Thay vì sử dụng một số lượng lớn hình ảnh để đào tạo AI, công cụ mới được tạo ra có nhiệm vụ “trích xuất nhiều dữ liệu hơn từ một bức ảnh.” Công ty gọi đây là ‘quá trình chuẩn hóa’, liên quan đến việc chuyển đổi hình ảnh “được chụp từ một góc cụ thể thành hình ảnh giống như một bức ảnh chụp thẳng.”

Như người phát ngôn giải thích, “với cùng một tập dữ liệu hạn chế, chúng tôi có thể phát hiện nhiều AUs hơn, thậm chí trong hình ảnh được chụp từ góc nghiêng, và với nhiều AUs hơn, chúng tôi có thể xác định cảm xúc phức tạp, tinh vi hơn so với các biểu cảm cốt lõi hiện được phân tích.”

Công ty tuyên bố rằng bây giờ họ có thể “phát hiện thay đổi cảm xúc tinh vi như tiếng cười lo lắng, với tỷ lệ chính xác là 81%, một con số được xác định thông qua ‘phương pháp đánh giá tiêu chuẩn’.” So sánh, theo nghiên cứu độc lập, các công cụ của Microsoft có tỷ lệ chính xác là 60%, và cũng gặp vấn đề khi phát hiện cảm xúc khi làm việc với hình ảnh được chụp từ góc nghiêng hơn.

Về các ứng dụng tiềm năng, Fujitsu đề cập rằng công cụ mới của họ có thể được sử dụng, trong số những thứ khác, để đảm bảo an toàn giao thông “bằng cách phát hiện thậm chí những thay đổi nhỏ trong sự tập trung của lái xe.”

Cựu nhà ngoại giao và dịch giả cho Liên Hợp Quốc, hiện là nhà báo / nhà văn / nhà nghiên cứu tự do, tập trung vào công nghệ hiện đại, trí tuệ nhân tạo và văn hóa hiện đại.