Connect with us

Đội nghiên cứu của MIT thiết kế mạng lưới AI để chống lại các ví dụ đối lập

Trí tuệ nhân tạo

Đội nghiên cứu của MIT thiết kế mạng lưới AI để chống lại các ví dụ đối lập

mm

Một đội nghiên cứu từ MIT has phát triển một thuật toán học sâu nhằm giúp các AI đối phó với các “ví dụ đối lập”, những ví dụ có thể khiến AI đưa ra dự đoán sai và thực hiện các hành động sai. Thuật toán được thiết kế bởi đội MIT có thể giúp các hệ thống AI duy trì độ chính xác và tránh đưa ra quyết định sai khi đối mặt với các điểm dữ liệu gây nhầm lẫn.

Các hệ thống AI phân tích các tính năng đầu vào của một sự kiện để quyết định cách phản ứng với sự kiện đó. Một AI chịu trách nhiệm điều khiển xe tự hành phải lấy dữ liệu từ camera của xe và quyết định dựa trên dữ liệu chứa trong những hình ảnh đó. Tuy nhiên, có khả năng dữ liệu hình ảnh được AI phân tích không phải là đại diện chính xác của thế giới thực. Một lỗi trong hệ thống camera có thể thay đổi một số pixel, dẫn đến AI đưa ra kết luận sai về hành động phù hợp.

“Đầu vào đối lập” giống như ảo giác quang học đối với hệ thống AI. Chúng là đầu vào gây nhầm lẫn cho AI theo một cách nào đó. Đầu vào đối lập có thể được tạo ra với mục đích cụ thể là khiến AI đưa ra quyết định sai, bằng cách thể hiện dữ liệu theo cách khiến AI tin rằng nội dung của một ví dụ là một thứ khác. Ví dụ, có thể tạo ra một ví dụ đối lập cho hệ thống tầm nhìn máy tính bằng cách thực hiện các thay đổi nhỏ đối với hình ảnh của mèo, khiến AI phân loại sai hình ảnh thành màn hình máy tính. Đội nghiên cứu MIT đã thiết kế một thuật toán để giúp bảo vệ chống lại các ví dụ đối lập bằng cách cho phép mô hình duy trì một mức độ “hoài nghi” về đầu vào nó nhận được.

Đội nghiên cứu MIT gọi phương pháp của họ là “Tính bền vững đối lập được chứng nhận cho Học tăng cường sâu”, hoặc CARRL. CARRL bao gồm một mạng lưới học tăng cường và một mạng nơ-ron sâu truyền thống được kết hợp lại. Học tăng cường sử dụng khái niệm “phần thưởng” để đào tạo mô hình, đưa cho mô hình phần thưởng tỷ lệ với mức độ gần gũi với mục tiêu. Mô hình học tăng cường được sử dụng để đào tạo một Deep Q-Network, hoặc DQN. DQN hoạt động giống như mạng nơ-ron truyền thống, nhưng cũng liên kết giá trị đầu vào với mức độ phần thưởng, tương tự như hệ thống học tăng cường.

CARRL hoạt động bằng cách mô hình hóa một loạt các giá trị đầu vào khác nhau.

Giả sử AI đang cố gắng theo dõi vị trí của một chấm trong một hình ảnh lớn hơn, AI coi vị trí của chấm có thể là kết quả của ảnh hưởng đối lập và xem xét các khu vực nơi chấm có thể ở thay thế. Sau đó, mạng lưới đưa ra quyết định dựa trên kịch bản tồi tệ nhất cho vị trí của chấm, chọn hành động sẽ tạo ra phần thưởng cao nhất trong kịch bản tồi tệ nhất này.

Phương pháp điển hình để bảo vệ chống lại các ví dụ đối lập liên quan đến việc chạy các phiên bản sửa đổi nhẹ của hình ảnh đầu vào qua mạng lưới AI để xem liệu quyết định luôn được đưa ra. Nếu các sửa đổi đối với hình ảnh không ảnh hưởng đáng kể đến kết quả, có khả năng mạng lưới chống lại các ví dụ đối lập. Tuy nhiên, đây không phải là chiến lược khả thi cho các tình huống cần đưa ra quyết định nhanh, vì những phương pháp này tốn thời gian và tính toán. Vì lý do này, đội MIT đã thiết lập để tạo ra một mạng nơ-ron có thể đưa ra quyết định dựa trên giả định tồi tệ nhất, một mạng lưới có khả năng hoạt động trong các tình huống mà an toàn là quan trọng.

Đội nghiên cứu MIT đã thử nghiệm thuật toán của họ bằng cách cho AI chơi một trò chơi Pong. Họ bao gồm các ví dụ đối lập bằng cách cung cấp cho AI các trường hợp mà bóng được hiển thị hơi thấp hơn trên màn hình so với thực tế. Khi ảnh hưởng của các ví dụ đối lập tăng lên, các kỹ thuật sửa chữa tiêu chuẩn bắt đầu thất bại trong khi CARRL có thể giành được nhiều trò chơi hơn so với sự so sánh. CARRL cũng được thử nghiệm trên một nhiệm vụ tránh va chạm. Nhiệm vụ diễn ra trong một môi trường ảo nơi hai tác nhân khác nhau cố gắng đổi vị trí mà không va chạm với nhau. Đội nghiên cứu đã thay đổi nhận thức của tác nhân đầu tiên về tác nhân thứ hai và CARRL đã có thể điều khiển thành công tác nhân đầu tiên xung quanh tác nhân thứ hai, ngay cả trong điều kiện không chắc chắn cao, mặc dù có đến một điểm mà CARRL trở nên quá thận trọng và kết thúc bằng việc tránh đích đến hoàn toàn.

Bất kể, Michael Everett, nghiên cứu sinh sau tiến sĩ tại Bộ phận Hàng không và Vũ trụ của MIT, người đứng đầu nghiên cứu, giải thích rằng nghiên cứu có thể có ý nghĩa đối với khả năng của robot trong việc xử lý các tình huống không thể đoán trước. Như Everett đã giải thích qua MIT News:

“Con người có thể đối lập, như đứng trước cảm biến của robot để chặn chúng, hoặc tương tác với chúng, không nhất thiết với ý định tốt nhất,” Everett nói. “Làm thế nào một robot có thể suy nghĩ về tất cả những điều mà con người có thể thử và cố gắng tránh chúng? Loại mô hình đối lập nào mà chúng tôi muốn bảo vệ? Đó là điều mà chúng tôi đang suy nghĩ về cách thực hiện.”

Blogger và lập trình viên với chuyên môn về Machine Learning Deep Learning topics. Daniel hy vọng giúp đỡ người khác sử dụng sức mạnh của AI cho lợi ích xã hội.