Trí tuệ nhân tạo
Các nhà nghiên cứu phát triển công cụ “DeepTrust” để giúp tăng độ tin cậy của AI

Sự an toàn và đáng tin cậy của trí tuệ nhân tạo (AI) là một trong những khía cạnh lớn nhất của công nghệ. Nó liên tục được cải thiện và làm việc bởi các chuyên gia hàng đầu trong các lĩnh vực khác nhau, và nó sẽ rất quan trọng đối với việc triển khai đầy đủ AI trong toàn xã hội.
Một số công trình mới đó đang được thực hiện tại Đại học Nam California, nơi các nhà nghiên cứu của USC Viterbi Engineering đã phát triển một công cụ mới có khả năng tạo ra các chỉ số tự động để biết các thuật toán AI có đáng tin cậy trong dữ liệu và dự đoán của họ hay không.
Nghiên cứu được công bố trong Biên giới trong trí tuệ nhân tạo, có tiêu đềRốt cuộc vẫn có hy vọng: Định lượng ý kiến và độ tin cậy trong mạng lưới thần kinh”. Các tác giả của bài báo bao gồm Mingxi Cheng, Shahin Nazarian và Paul Bogdan của Nhóm Hệ thống Vật lý Điện tử USC.
Độ tin cậy của mạng lưới thần kinh
Một trong những nhiệm vụ lớn nhất trong lĩnh vực này là khiến các mạng thần kinh tạo ra các dự đoán có thể tin cậy được. Trong nhiều trường hợp, đây là nguyên nhân ngăn cản việc áp dụng đầy đủ công nghệ dựa trên AI.
Ví dụ, các phương tiện tự lái được yêu cầu hành động độc lập và đưa ra quyết định chính xác về chế độ lái tự động. Họ cần có khả năng đưa ra những quyết định này cực kỳ nhanh chóng, đồng thời giải mã và nhận dạng các vật thể trên đường. Điều này rất quan trọng, đặc biệt là trong các tình huống mà công nghệ sẽ phải giải mã sự khác biệt giữa gờ giảm tốc, một số vật thể khác hoặc một sinh vật sống.
Các tình huống khác bao gồm phương tiện tự lái quyết định phải làm gì khi một phương tiện khác đối đầu trực diện với nó và quyết định phức tạp nhất là liệu phương tiện tự lái đó có cần quyết định giữa việc đâm vào thứ mà nó cho là phương tiện khác, một vật thể nào đó hay không. hoặc một chúng sinh.
Tất cả điều này có nghĩa là chúng tôi đang đặt niềm tin cực độ vào khả năng phần mềm của xe tự lái đưa ra quyết định chính xác chỉ trong một phần giây. Mọi chuyện càng trở nên khó khăn hơn khi có thông tin xung đột từ các cảm biến khác nhau, chẳng hạn như thị giác máy tính từ camera và Lidar.
Tác giả chính Minxi Cheng đã quyết định thực hiện dự án này sau khi suy nghĩ: “Ngay cả con người cũng có thể thiếu quyết đoán trong một số tình huống ra quyết định. Trong những trường hợp liên quan đến thông tin mâu thuẫn, tại sao máy móc không thể cho chúng tôi biết khi chúng không biết?”
DeepTrust
Theo Paul Bogdan, phó giáo sư tại Khoa Kỹ thuật Điện và Máy tính Ming Hsieh, công cụ do các nhà nghiên cứu tạo ra có tên là DeepTrust và nó có thể định lượng mức độ không chắc chắn.
Nhóm đã dành gần hai năm để phát triển DeepTrust, chủ yếu sử dụng logic chủ quan để đánh giá mạng lưới thần kinh. Trong một ví dụ về công cụ đang hoạt động, nó có thể xem xét các cuộc thăm dò bầu cử tổng thống năm 2016 và dự đoán rằng tỷ lệ sai sót lớn hơn đối với chiến thắng của Hillary Clinton.
Công cụ DeepTrust cũng giúp việc kiểm tra độ tin cậy của các thuật toán AI thường được đào tạo trên hàng triệu điểm dữ liệu trở nên dễ dàng hơn. Một cách khác để làm điều này là kiểm tra độc lập từng điểm dữ liệu để kiểm tra độ chính xác, đây là một nhiệm vụ cực kỳ tốn thời gian.
Theo các nhà nghiên cứu, kiến trúc của các hệ thống mạng thần kinh này chính xác hơn, đồng thời độ chính xác và độ tin cậy có thể được tối đa hóa.
“Theo hiểu biết của chúng tôi, không có mô hình hoặc công cụ định lượng độ tin cậy nào cho deep learning, trí tuệ nhân tạo và machine learning. Đây là cách tiếp cận đầu tiên và mở ra những hướng nghiên cứu mới”, Bogdan nói.
Bogdan cũng tin rằng DeepTrust có thể giúp thúc đẩy AI phát triển đến mức nó “nhận thức và thích nghi”.