sơ khai AI có trách nhiệm là gì? Nguyên tắc, Thách thức & Lợi ích - Unite.AI
Kết nối với chúng tôi
Lớp học AI:

AI 101

AI có trách nhiệm là gì? Nguyên tắc, thách thức và lợi ích

mm
cập nhật on
Một người đang cầm trên tay quả địa cầu khi đang đứng trên cánh đồng.

AI có trách nhiệm (RAI) đề cập đến việc thiết kế và triển khai các hệ thống AI minh bạch, không thiên vị, có trách nhiệm giải trình và tuân theo các nguyên tắc đạo đức. Khi các hệ thống AI trở nên mạnh mẽ và phổ biến hơn, việc đảm bảo chúng được phát triển một cách có trách nhiệm và tuân theo các hướng dẫn về an toàn và đạo đức là điều cần thiết.

Y tế, Giao thông vận tải, Quản lý mạng và Giám sát là các ứng dụng AI quan trọng về an toàn nơi lỗi hệ thống có thể gây ra hậu quả nghiêm trọng. Các công ty lớn nhận thức được rằng RAI là điều cần thiết để giảm thiểu rủi ro công nghệ. Tuy nhiên, theo một báo cáo của MIT Sloan/BCG bao gồm 1093 người trả lời, 54% của các công ty thiếu tài năng và chuyên môn AI có trách nhiệm.

Mặc dù các nhà lãnh đạo và tổ chức có tư tưởng đã phát triển các nguyên tắc về AI có trách nhiệm, nhưng việc đảm bảo sự phát triển có trách nhiệm của các hệ thống AI vẫn còn nhiều thách thức. Hãy khám phá ý tưởng này một cách chi tiết:

5 Nguyên tắc cho AI có trách nhiệm

1. Công bằng

Các nhà công nghệ nên thiết kế các quy trình sao cho hệ thống AI đối xử công bằng với tất cả các cá nhân và nhóm mà không thiên vị. Do đó, sự công bằng là yêu cầu chính trong các ứng dụng ra quyết định có rủi ro cao.

Công bằng được định nghĩa là:

“Kiểm tra tác động đối với các nhóm nhân khẩu học khác nhau và chọn một trong số một số định nghĩa toán học về sự công bằng của nhóm sẽ đáp ứng đầy đủ các yêu cầu pháp lý, văn hóa và đạo đức mong muốn.”

2. Trách nhiệm giải trình

Trách nhiệm giải trình có nghĩa là các cá nhân và tổ chức phát triển và triển khai các hệ thống AI phải chịu trách nhiệm về các quyết định và hành động của mình. Nhóm triển khai các hệ thống AI phải đảm bảo rằng hệ thống AI của họ minh bạch, có thể diễn giải, có thể kiểm tra được và không gây hại cho xã hội.

Trách nhiệm giải trình bao gồm XNUMX các thành phần:

  1. Bối cảnh (mục đích yêu cầu trách nhiệm giải trình)
  2. Phạm vi (đối tượng chịu trách nhiệm)
  3. Đại lý (ai chịu trách nhiệm?)
  4. Diễn đàn (người chịu trách nhiệm phải báo cáo)
  5. Tiêu chuẩn (tiêu chí về trách nhiệm giải trình)
  6. Quy trình (phương pháp giải trình)
  7. Hàm ý (hậu quả của trách nhiệm giải trình)

3. Minh bạch

Minh bạch có nghĩa là lý do đằng sau việc ra quyết định trong các hệ thống AI là rõ ràng và dễ hiểu. Hệ thống AI trong suốt có thể giải thích được.

Theo Danh sách đánh giá Trí tuệ nhân tạo đáng tin cậy (ALTAI), tính minh bạch có ba yếu tố chính:

  1. Truy xuất nguồn gốc (dữ liệu, các bước tiền xử lý và mô hình có thể truy cập được)
  2. Khả năng giải thích (lý do đằng sau việc ra quyết định/dự đoán là rõ ràng)
  3. Open Communication (liên quan đến giới hạn của hệ thống AI)

4. Riêng tư

Quyền riêng tư là một trong những nguyên tắc chính của AI có trách nhiệm. Nó đề cập đến việc bảo vệ thông tin cá nhân. Nguyên tắc này đảm bảo rằng thông tin cá nhân của mọi người được thu thập và xử lý với sự đồng ý và không lọt vào tay những kẻ bất mãn.

Bằng chứng là gần đây đã có trường hợp của Clearview, một công ty sản xuất các mô hình nhận dạng khuôn mặt cho cơ quan thực thi pháp luật và các trường đại học. cơ quan giám sát dữ liệu của Vương quốc Anh kiện Clearview AI 7.5 triệu bảng Anh vì đã thu thập hình ảnh của cư dân Vương quốc Anh từ phương tiện truyền thông xã hội mà không có sự đồng ý để tạo cơ sở dữ liệu gồm 20 tỷ hình ảnh.

5. An ninh

Bảo mật có nghĩa là đảm bảo rằng các hệ thống AI an toàn và không đe dọa xã hội. Một ví dụ về mối đe dọa bảo mật AI là các cuộc tấn công bất lợi. Các cuộc tấn công độc hại này lừa các mô hình ML đưa ra các quyết định không chính xác. Bảo vệ các hệ thống AI khỏi các cuộc tấn công mạng là bắt buộc đối với AI có trách nhiệm.

4 thách thức và rủi ro chính của AI có trách nhiệm

1. Thiên kiến

Những thành kiến ​​của con người liên quan đến tuổi tác, giới tính, quốc tịch và chủng tộc có thể ảnh hưởng đến việc thu thập dữ liệu, có khả năng dẫn đến các mô hình AI bị sai lệch. Nghiên cứu của Bộ Thương mại Hoa Kỳ phát hiện ra rằng AI nhận dạng khuôn mặt xác định sai người da màu. Do đó, việc sử dụng AI để nhận dạng khuôn mặt trong thực thi pháp luật có thể dẫn đến các vụ bắt giữ oan uổng. Ngoài ra, việc tạo ra các mô hình AI công bằng là một thách thức vì có 21 tham số khác nhau để xác định chúng. Vì vậy, có một sự đánh đổi; thỏa mãn một tham số AI hợp lý có nghĩa là hy sinh một tham số khác.

2. Khả năng diễn giải

Khả năng giải thích là một thách thức quan trọng trong việc phát triển AI có trách nhiệm. Nó đề cập đến việc hiểu mô hình học máy đã đạt được một kết luận cụ thể như thế nào.

Mạng lưới thần kinh sâu thiếu khả năng diễn giải vì chúng hoạt động dưới dạng Hộp đen với nhiều lớp tế bào thần kinh ẩn, khiến quá trình ra quyết định trở nên khó hiểu. Đây có thể là một thách thức trong việc ra quyết định có tính rủi ro cao như chăm sóc sức khỏe, tài chính, v.v.

Hơn nữa, việc chính thức hóa khả năng diễn giải trong các mô hình ML là một thách thức vì nó chủ quan và miền cụ thể.

3. Quản trị

Quản trị đề cập đến một bộ quy tắc, chính sách và thủ tục giám sát việc phát triển và triển khai các hệ thống AI. Gần đây, đã có những tiến bộ đáng kể trong diễn ngôn quản trị AI, với các tổ chức đưa ra các khuôn khổ và nguyên tắc đạo đức.

hướng dẫn đạo đức cho AI đáng tin cậy của EUKhung đạo đức AI của Úcvà Nguyên tắc AI của OECD là những ví dụ về khung quản trị AI.

Nhưng sự tiến bộ nhanh chóng của AI trong những năm gần đây có thể vượt xa các khuôn khổ quản trị AI này. Để đạt được mục tiêu này, cần phải có một khuôn khổ đánh giá tính công bằng, khả năng diễn giải và đạo đức của các hệ thống AI.

4. Quy

Khi các hệ thống AI trở nên phổ biến hơn, cần phải có quy định để xem xét các giá trị đạo đức và xã hội. Phát triển quy định không cản trở sự đổi mới của AI là một thách thức quan trọng đối với AI có trách nhiệm.

Ngay cả với Quy định chung về bảo vệ dữ liệu (GDPR), Đạo luật về quyền riêng tư của người tiêu dùng California (CCPA) và Luật bảo vệ thông tin cá nhân (PIPL) với tư cách là các cơ quan quản lý, các nhà nghiên cứu AI nhận thấy rằng 97% của các trang web EU không tuân thủ các yêu cầu khung pháp lý GDPR.

Hơn nữa, các nhà lập pháp phải đối mặt với một thách thức đáng kể trong việc đạt được sự đồng thuận về định nghĩa AI bao gồm cả hệ thống AI cổ điển và các ứng dụng AI mới nhất.

3 lợi ích chính của AI có trách nhiệm

1. Giảm sai lệch

AI có trách nhiệm làm giảm sự thiên vị trong quá trình ra quyết định, xây dựng niềm tin vào hệ thống AI. Giảm sự thiên vị trong các hệ thống AI có thể mang lại một hệ thống chăm sóc sức khỏe công bằng và bình đẳng, đồng thời giảm sự thiên vị trong các hệ thống dựa trên AI dịch vụ tài chính và vv

2. Nâng cao tính minh bạch

Trí tuệ nhân tạo có trách nhiệm tạo ra các ứng dụng trí tuệ nhân tạo minh bạch, tạo dựng niềm tin vào các hệ thống trí tuệ nhân tạo. Hệ thống AI trong suốt giảm nguy cơ lỗi và sử dụng sai. Tính minh bạch được nâng cao giúp việc kiểm tra các hệ thống AI dễ dàng hơn, chiếm được lòng tin của các bên liên quan và có thể dẫn đến các hệ thống AI có trách nhiệm giải trình.

3. Bảo mật tốt hơn

Các ứng dụng AI an toàn đảm bảo quyền riêng tư của dữ liệu, tạo ra đầu ra đáng tin cậy và vô hại, đồng thời an toàn trước các cuộc tấn công mạng.

Những gã khổng lồ công nghệ như microsoft và Google, đi đầu trong việc phát triển các hệ thống AI, đã phát triển các nguyên tắc AI có trách nhiệm. AI có trách nhiệm đảm bảo rằng sự đổi mới trong AI không gây hại cho cá nhân và xã hội.

Các nhà lãnh đạo tư tưởng, nhà nghiên cứu, tổ chức và cơ quan pháp lý nên liên tục sửa đổi các tài liệu về AI có trách nhiệm để đảm bảo một tương lai an toàn cho đổi mới AI.

Để biết thêm nội dung liên quan đến AI, hãy truy cập đoàn kết.ai.