sơ khai Hệ thống Deep Learning học tốt hơn khi bị phân tâm - Unite.AI
Kết nối với chúng tôi

Trí tuệ nhân tạo

Hệ thống Deep Learning học tốt hơn khi bị phân tâm

cập nhật on

Các nhà khoa học máy tính từ Hà Lan và Tây Ban Nha đã xác định cách một hệ thống học sâu học tốt hơn khi bị phân tâm. Trí tuệ nhân tạo (AI) nhằm mục đích nhận dạng hình ảnh và có thể học cách nhận biết môi trường xung quanh. Nhóm đã có thể đơn giản hóa quá trình học tập sau khi buộc hệ thống tập trung vào các đặc điểm phụ.

Mạng lưới thần kinh chuyển đổi

Hệ thống học sâu dựa trên các mạng thần kinh tích chập (CNN), là một hình thức học sâu cho các hệ thống AI. 

Estefanía Talavera Martinez là giảng viên và nhà nghiên cứu tại Viện Toán học, Khoa học Máy tính và Trí tuệ Nhân tạo Bernoulli của Đại học Groningen ở Hà Lan.

Talavera Martinez nói: “Những CNN này thành công, nhưng chúng tôi không hoàn toàn hiểu cách chúng hoạt động.

Talavera Martinez đã sử dụng CNN để phân tích hình ảnh từ máy ảnh đeo được trong khi nghiên cứu hành vi của con người. Một số công việc của cô ấy xoay quanh việc nghiên cứu sự tương tác của con người với thức ăn, vì vậy cô ấy bắt đầu làm cho hệ thống nhận ra các bối cảnh khác nhau mà mọi người tiếp xúc với thức ăn.

“Tôi nhận thấy rằng hệ thống đã mắc lỗi trong việc phân loại một số bức ảnh và cần biết tại sao điều này lại xảy ra,” cô nói.

Cô ấy đã sử dụng bản đồ nhiệt và phân tích phần nào của hình ảnh được CNN sử dụng để xác định bối cảnh.

Cô ấy nói: “Điều này dẫn đến giả thuyết rằng hệ thống đã không xem xét đủ chi tiết.

Một ví dụ được đưa ra là hệ thống AI tự học cách sử dụng cốc để xác định nhà bếp. Trong ví dụ này, AI có thể phân loại sai các khu vực như phòng khách và văn phòng, những nơi cũng thường có cốc.

Talavera Martinez và nhóm của cô sau đó bắt đầu phát triển một giải pháp. Các đồng nghiệp của cô bao gồm David Morales và Beatriz Remeseiro, cả hai đều ở Tây Ban Nha. Giải pháp được đề xuất là đánh lạc hướng hệ thống khỏi các mục tiêu chính của chúng.

Phát triển giải pháp

Nhóm đã đào tạo các CNN với một bộ hình ảnh tiêu chuẩn về máy bay hoặc ô tô và họ xác định phần nào của hình ảnh được sử dụng để phân loại thông qua bản đồ nhiệt. Những phần này của hình ảnh sau đó được làm mờ trong tập hợp hình ảnh và tập hợp hình ảnh được sử dụng cho vòng huấn luyện thứ hai. 

“Điều này buộc hệ thống phải tìm kiếm các số nhận dạng ở nơi khác. Và bằng cách sử dụng thông tin bổ sung này, nó trở nên chi tiết hơn trong phân loại của nó,” Talavera Martinez nói.

Hệ thống mới hoạt động tốt trong các bộ hình ảnh tiêu chuẩn và thành công trong các hình ảnh được thu thập từ máy ảnh đeo được. 

Cô nói: “Chế độ đào tạo của chúng tôi mang lại cho chúng tôi kết quả tương tự như các phương pháp khác, nhưng đơn giản hơn nhiều và cần ít thời gian tính toán hơn.

Những nỗ lực trước đây nhằm tăng khả năng phân loại chi tiết đã tập trung vào sự kết hợp của các bộ CNN khác nhau, nhưng phương pháp mới được phát triển nhẹ hơn nhiều.

Talavera Martinez cho biết: “Nghiên cứu này đã cho chúng tôi hiểu rõ hơn về cách các CNN này học và điều đó đã giúp chúng tôi cải thiện chương trình đào tạo.

Alex McFarland là một nhà báo và nhà văn về AI đang khám phá những phát triển mới nhất về trí tuệ nhân tạo. Anh ấy đã cộng tác với nhiều công ty khởi nghiệp và ấn phẩm về AI trên toàn thế giới.