Đạo đức
Nguyên tắc Đạo đức Trí tuệ Nhân tạo Được Phân tích Meta, Quyền con người Được Nhấn mạnh

Vào năm 2019, có nhiều sự tập trung vào đạo đức trí tuệ nhân tạo hơn bao giờ hết. Tuy nhiên, nhiều cuộc thảo luận này dường như không rõ ràng, không có phương pháp tiếp cận được mã hóa. Thay vào đó, các công ty khác nhau đã tạo ra các khuôn khổ và chính sách riêng của họ liên quan đến đạo đức trí tuệ nhân tạo. Việc có sự đồng thuận về các vấn đề đạo đức trí tuệ nhân tạo là quan trọng vì nó giúp các nhà hoạch định chính sách tạo ra và điều chỉnh các chính sách, và nó cũng thông báo cho công việc được thực hiện bởi các nhà nghiên cứu và học giả. Ngoài ra, các công ty trí tuệ nhân tạo phải biết nơi giới hạn đạo đức là nếu họ hy vọng tránh việc triển khai trí tuệ nhân tạo không đạo đức. Để tạo ra một bức tranh tốt hơn về xu hướng trong đạo đức trí tuệ nhân tạo, theo VentureBeats báo cáo, Trung tâm Berkman Klein tại Đại học Harvard đã thực hiện một phân tích meta của các nguyên tắc và khuôn khổ đạo đức trí tuệ nhân tạo hiện có.
Theo các tác giả của phân tích, các nhà nghiên cứu muốn so sánh các nguyên tắc cạnh nhau để tìm kiếm sự chồng chéo và phân kỳ. Jessica Fjeld, giám đốc phụ tá của Phòng khám Luật sư Mạng của Trường Luật Harvard, giải thích rằng nhóm nghiên cứu muốn “bộc lộ động lực ẩn trong một cuộc trò chuyện toàn cầu bị chia rẽ xung quanh tương lai của trí tuệ nhân tạo, dẫn đến báo cáo trắng này và hình ảnh hóa dữ liệu liên quan.”
Trong quá trình phân tích, nhóm đã kiểm tra 36 tài liệu nguyên tắc trí tuệ nhân tạo khác nhau có nguồn gốc từ khắp nơi trên thế giới và đến từ nhiều loại tổ chức khác nhau. Kết quả của nghiên cứu cho thấy có tám chủ đề thường xuyên xuất hiện trên nhiều tài liệu.
Quyền riêng tư và trách nhiệm giải trình là hai chủ đề đạo đức thường xuyên xuất hiện nhất, cũng như an toàn / bảo mật trí tuệ nhân tạo. Minh bạch / giải thích cũng là một mục tiêu thường được trích dẫn, với nhiều nỗ lực để làm cho các thuật toán trở nên giải thích được trong suốt năm 2019. Công bằng / không phân biệt đối xử là một điểm tập trung đạo đức khác, phản ánh mối quan ngại ngày càng tăng về thiên vị dữ liệu. Đảm bảo kiểm soát con người của công nghệ, và không đầu hàng quyền quyết định cho trí tuệ nhân tạo đã được đề cập nhiều. Trách nhiệm nghề nghiệp là chủ đề thứ bảy thường được nhóm nghiên cứu tìm thấy. Cuối cùng, nhóm nghiên cứu đã tìm thấy sự đề cập liên tục đến việc thúc đẩy các giá trị con người trong tài liệu đạo đức trí tuệ nhân tạo mà họ đã kiểm tra.
Nhóm nghiên cứu đã cung cấp phân tích định lượng và định tính về cách các chủ đề này thể hiện trong tài liệu đạo đức trí tuệ nhân tạo trong báo cáo của họ và trong một bản đồ đi kèm. Bản đồ hiển thị nơi mỗi chủ đề được đề cập.
Nhóm nghiên cứu lưu ý rằng nhiều cuộc thảo luận về đạo đức trí tuệ nhân tạo xoay quanh mối quan ngại về các giá trị và quyền con người. Như báo cáo nghiên cứu lưu ý:
“64% tài liệu của chúng tôi chứa một tham chiếu đến quyền con người, và năm tài liệu [14%] đã lấy quyền con người quốc tế làm khuôn khổ cho nỗ lực tổng thể của họ.”
Tham chiếu đến quyền con người và giá trị được tìm thấy thường xuyên hơn trong các tài liệu do các nhóm khu vực tư nhân và xã hội dân sự sản xuất. Điều này cho thấy rằng các công ty trí tuệ nhân tạo tư nhân không chỉ quan tâm đến lợi nhuận mà còn sản xuất trí tuệ nhân tạo theo cách đạo đức. Trong khi đó, các cơ quan chính phủ dường như ít quan tâm hoặc nhận thức về đạo đức trí tuệ nhân tạo nói chung, với ít hơn một nửa số tài liệu liên quan đến trí tuệ nhân tạo có nguồn gốc từ các cơ quan chính phủ quan tâm đến đạo đức trí tuệ nhân tạo.
Các nhà nghiên cứu cũng lưu ý rằng nếu các tài liệu họ kiểm tra là gần đây hơn, chúng có nhiều khả năng giải quyết tất cả tám chủ đề nổi bật nhất thay vì chỉ một vài. Thực tế này ngụ ý rằng những ý tưởng đằng sau việc sử dụng trí tuệ nhân tạo đạo đức đang bắt đầu kết hợp giữa những người dẫn đầu cuộc thảo luận về đạo đức trí tuệ nhân tạo. Cuối cùng, các nhà nghiên cứu tuyên bố rằng thành công của các nguyên tắc này trong việc hướng dẫn sự phát triển của trí tuệ nhân tạo sẽ phụ thuộc vào mức độ chúng được tích hợp vào cộng đồng phát triển trí tuệ nhân tạo nói chung. Các nhà nghiên cứu tuyên bố trong báo cáo:
“Hơn nữa, các nguyên tắc là một điểm bắt đầu cho quản lý, không phải là điểm kết thúc. Ngay cả khi một tập hợp các nguyên tắc không có khả năng hơn là thuyết phục nhẹ. Tác động của nó có khả năng phụ thuộc vào cách nó được nhúng vào một hệ sinh thái quản lý lớn hơn, bao gồm ví dụ các chính sách liên quan (ví dụ: kế hoạch quốc gia trí tuệ nhân tạo), luật, quy định, nhưng cũng các thực hành chuyên nghiệp và thói quen hàng ngày.”












