sơ khai Nhóm tư vấn công nghệ thúc đẩy giới hạn sử dụng AI của Lầu Năm Góc - Unite.AI
Kết nối với chúng tôi

Quy định

Nhóm cố vấn công nghệ thúc đẩy giới hạn sử dụng AI của Lầu Năm Góc

mm
cập nhật on

Lầu Năm Góc đã thể hiện rõ ràng ý định đầu tư mạnh vào trí tuệ nhân tạo, tuyên bố rằng AI sẽ giúp quân đội Hoa Kỳ mạnh mẽ hơn và mạnh mẽ hơn trước các mối đe dọa an ninh quốc gia có thể xảy ra. Theo báo cáo của Engadget, Thứ Năm tuần trước, Ủy ban Đổi mới Quốc phòng đã đưa ra một số hướng dẫn đạo đức được đề xuất cho việc sử dụng AI trong quân đội. Danh sách các đề xuất bao gồm các chiến lược để tránh sai lệch ngoài ý muốn và AI có thể quản lý sẽ có các quy trình dừng khẩn cấp để ngăn AI gây ra tác hại không cần thiết.

Báo cáo có dây rằng Ủy ban Đổi mới Quốc phòng được Chính quyền Obama thành lập để hướng dẫn Lầu Năm Góc thu thập kinh nghiệm và tài năng của ngành công nghệ. Hội đồng quản trị hiện do cựu CEO của Google, Eric Schmidt làm chủ tịch. Bộ gần đây được giao nhiệm vụ thiết lập các hướng dẫn để thực hiện đạo đức AI trong các dự án quân sự. Vào thứ Năm, hội đồng đã đưa ra các hướng dẫn và khuyến nghị của họ để xem xét. Báo cáo lưu ý rằng đã đến lúc thảo luận nghiêm túc về việc sử dụng AI trong bối cảnh quân sự trước khi một số vụ việc nghiêm trọng bắt buộc phải có.

Theo Tin tức trí tuệ nhân tạo, một cựu quan chức quân đội gần đây đã tuyên bố rằng Lầu Năm Góc đang tụt lại phía sau khi sử dụng AI. Lầu Năm Góc đang hướng tới việc bù đắp sự khác biệt này và họ đã tuyên bố việc phát triển và mở rộng AI trong quân đội là ưu tiên quốc gia. Các nhà đạo đức AI lo ngại rằng trong sự vội vàng của Lầu Năm Góc để trở thành người dẫn đầu về AI, các hệ thống AI có thể được sử dụng theo những cách phi đạo đức. Trong khi các hội đồng đạo đức AI độc lập khác nhau đã đưa ra các đề xuất của riêng họ, thì Ủy ban Đổi mới Quốc phòng đã đề xuất ít nhất năm nguyên tắc mà quân đội nên tuân theo mọi lúc khi phát triển và triển khai các hệ thống AI.

Nguyên tắc đầu tiên do hội đồng đề xuất là nguyên tắc con người phải luôn chịu trách nhiệm về việc sử dụng, triển khai và kết quả của bất kỳ nền tảng trí tuệ nhân tạo nào được sử dụng trong bối cảnh quân sự. Điều này gợi nhớ đến một chính sách năm 2012 quy định rằng con người cuối cùng phải là một phần của quá trình ra quyết định bất cứ khi nào vũ lực gây chết người có thể được sử dụng. Có một số nguyên tắc khác trong danh sách cung cấp lời khuyên chung như đảm bảo rằng các hệ thống AI luôn được xây dựng bởi các kỹ sư hiểu rõ và ghi chép kỹ lưỡng các chương trình của họ. Một nguyên tắc khác khuyên rằng các hệ thống AI quân sự phải luôn được kiểm tra độ tin cậy của chúng. Những hướng dẫn này dường như là lẽ thường, nhưng hội đồng quản trị muốn nhấn mạnh tầm quan trọng của chúng.

Các nguyên tắc khác trong danh sách liên quan đến việc kiểm soát sai lệch cho các thuật toán AI và khả năng AI phát hiện nếu có thể gây ra tác hại ngoài ý muốn và tự động ngắt kết nối. Các hướng dẫn nêu rõ rằng nếu xảy ra tác hại không cần thiết, AI sẽ có thể tự ngắt hoạt động và nhờ người điều khiển là con người tiếp quản. Dự thảo nguyên tắc cũng khuyến nghị rằng đầu ra của AI phải được theo dõi để các nhà phân tích có thể thấy điều gì đã khiến AI đưa ra quyết định nhất định.

Tập hợp các khuyến nghị do hội đồng đưa ra nhấn mạnh hai ý tưởng khác nhau. Các nguyên tắc phản ánh thực tế rằng AI sẽ không thể thiếu trong tương lai của các hoạt động quân sự, nhưng phần lớn AI vẫn dựa vào quản lý và ra quyết định của con người.

Mặc dù Lầu Năm Góc không phải áp dụng các khuyến nghị của hội đồng quản trị, nhưng có vẻ như Lầu Năm Góc đang thực hiện các khuyến nghị một cách nghiêm túc. Theo báo cáo của Wired, Giám đốc Trung tâm Tình báo Nhân tạo Chung, Trung tướng Jack Shanahan, cho biết các khuyến nghị của hội đồng sẽ hỗ trợ Lầu Năm Góc trong việc “duy trì các tiêu chuẩn đạo đức cao nhất như được nêu trong chiến lược AI của DoD, đồng thời nắm bắt lịch sử mạnh mẽ của quân đội Hoa Kỳ trong việc áp dụng thử nghiệm nghiêm ngặt và bảo vệ các tiêu chuẩn cho đổi mới công nghệ.”

Toàn bộ ngành công nghệ vẫn cảnh giác với việc sử dụng AI trong việc tạo ra phần cứng và phần mềm quân sự. Các nhân viên của Microsoft và Google đều phản đối việc hợp tác với các thực thể quân sự và Google gần đây đã quyết định không gia hạn hợp đồng mà họ đã đóng góp cho Dự án Maven. Một số CEO, nhà khoa học và kỹ sư cũng đã ký cam kết không “tham gia hoặc hỗ trợ phát triển, sản xuất, buôn bán hoặc sử dụng vũ khí tự động gây chết người”. Nếu Lầu Năm Góc áp dụng các hướng dẫn do hội đồng đề xuất, thì điều đó có thể khiến ngành công nghệ sẵn sàng cộng tác hơn trong các dự án, mặc dù chỉ có thời gian mới trả lời được.

Blogger và lập trình viên có chuyên môn về Machine Learning Học kĩ càng chủ đề. Daniel hy vọng sẽ giúp những người khác sử dụng sức mạnh của AI vì lợi ích xã hội.