- Thuật ngữ (A đến D)
- Kiểm soát khả năng AI
- CỨU
- albumentation
- Hiệu suất tài sản
- Tự động mã hóa
- Lan truyền ngược
- Định lý Bayes
- Dữ Liệu Lớn.
- Chatbot: Hướng dẫn cho người mới bắt đầu
- Tư duy tính toán
- Tầm nhìn máy tính
- Ma trận hỗn loạn
- Mạng lưới thần kinh chuyển đổi
- An ninh mạng
- Vải dữ liệu
- Kể chuyện dữ liệu
- Khoa học dữ liệu
- Kho dữ liệu
- Cây quyết định
- Deepfakes
- Học kĩ càng
- Học tập củng cố sâu
- DevOps
- DevSecOps
- Mô hình khuếch tán
- Twin kỹ thuật số
- Giảm kích thước
- Thuật ngữ (E đến K)
- Cạnh AI
- Cảm xúc AI
- học hòa tấu
- Hacking đạo đức
- ETL
- AI có thể giải thích
- Học liên kết
- FinOps
- Trí tuệ nhân tạo
- Mạng đối thủ sáng tạo
- Sáng tạo so với phân biệt đối xử
- Tăng cường Gradient
- Xuống dốc
- Học vài lần
- Phân loại hình ảnh
- Hoạt động CNTT (ITOPs)
- Tự động hóa sự cố
- Kỹ thuật gây ảnh hưởng
- Phân cụm K-Means
- K-Những người hàng xóm gần nhất
- Thuật ngữ (L đến Q)
- Thuật ngữ (R đến Z)
- Học tăng cường
- AI có trách nhiệm
- RLHF
- Tự động hóa quá trình robot
- Có cấu trúc so với không có cấu trúc
- Phân tích tình cảm
- Giám sát vs Không giám sát
- Hỗ trợ Máy Vector
- Dữ liệu tổng hợp
- truyền thông tổng hợp
- Phân loại văn bản
- TinyML
- Chuyển giao học tập
- Mạng thần kinh biến áp
- Phép thử Turing
- Tìm kiếm sự giống nhau của vectơ
AI 101
AI có trách nhiệm là gì? Nguyên tắc, thách thức và lợi ích
By
Haziqa SajidMục lục
AI có trách nhiệm (RAI) đề cập đến việc thiết kế và triển khai các hệ thống AI minh bạch, không thiên vị, có trách nhiệm giải trình và tuân theo các nguyên tắc đạo đức. Khi các hệ thống AI trở nên mạnh mẽ và phổ biến hơn, việc đảm bảo chúng được phát triển một cách có trách nhiệm và tuân theo các hướng dẫn về an toàn và đạo đức là điều cần thiết.
Y tế, Giao thông vận tải, Quản lý mạng và Giám sát là các ứng dụng AI quan trọng về an toàn nơi lỗi hệ thống có thể gây ra hậu quả nghiêm trọng. Các công ty lớn nhận thức được rằng RAI là điều cần thiết để giảm thiểu rủi ro công nghệ. Tuy nhiên, theo một báo cáo của MIT Sloan/BCG bao gồm 1093 người trả lời, 54% của các công ty thiếu tài năng và chuyên môn AI có trách nhiệm.
Mặc dù các nhà lãnh đạo và tổ chức có tư tưởng đã phát triển các nguyên tắc về AI có trách nhiệm, nhưng việc đảm bảo sự phát triển có trách nhiệm của các hệ thống AI vẫn còn nhiều thách thức. Hãy khám phá ý tưởng này một cách chi tiết:
5 Nguyên tắc cho AI có trách nhiệm
1. Công bằng
Các nhà công nghệ nên thiết kế các quy trình sao cho hệ thống AI đối xử công bằng với tất cả các cá nhân và nhóm mà không thiên vị. Do đó, sự công bằng là yêu cầu chính trong các ứng dụng ra quyết định có rủi ro cao.
Công bằng được định nghĩa là:
“Kiểm tra tác động đối với các nhóm nhân khẩu học khác nhau và chọn một trong số một số định nghĩa toán học về sự công bằng của nhóm sẽ đáp ứng đầy đủ các yêu cầu pháp lý, văn hóa và đạo đức mong muốn.”
2. Trách nhiệm giải trình
Trách nhiệm giải trình có nghĩa là các cá nhân và tổ chức phát triển và triển khai các hệ thống AI phải chịu trách nhiệm về các quyết định và hành động của mình. Nhóm triển khai các hệ thống AI phải đảm bảo rằng hệ thống AI của họ minh bạch, có thể diễn giải, có thể kiểm tra được và không gây hại cho xã hội.
Trách nhiệm giải trình bao gồm XNUMX các thành phần:
- Bối cảnh (mục đích yêu cầu trách nhiệm giải trình)
- Phạm vi (đối tượng chịu trách nhiệm)
- Đại lý (ai chịu trách nhiệm?)
- Diễn đàn (người chịu trách nhiệm phải báo cáo)
- Tiêu chuẩn (tiêu chí về trách nhiệm giải trình)
- Quy trình (phương pháp giải trình)
- Hàm ý (hậu quả của trách nhiệm giải trình)
3. Minh bạch
Minh bạch có nghĩa là lý do đằng sau việc ra quyết định trong các hệ thống AI là rõ ràng và dễ hiểu. Hệ thống AI trong suốt có thể giải thích được.
Theo Danh sách đánh giá Trí tuệ nhân tạo đáng tin cậy (ALTAI), tính minh bạch có ba yếu tố chính:
- Truy xuất nguồn gốc (dữ liệu, các bước tiền xử lý và mô hình có thể truy cập được)
- Khả năng giải thích (lý do đằng sau việc ra quyết định/dự đoán là rõ ràng)
- Open Communication (liên quan đến giới hạn của hệ thống AI)
4. Riêng tư
Quyền riêng tư là một trong những nguyên tắc chính của AI có trách nhiệm. Nó đề cập đến việc bảo vệ thông tin cá nhân. Nguyên tắc này đảm bảo rằng thông tin cá nhân của mọi người được thu thập và xử lý với sự đồng ý và không lọt vào tay những kẻ bất mãn.
Bằng chứng là gần đây đã có trường hợp của Clearview, một công ty sản xuất các mô hình nhận dạng khuôn mặt cho cơ quan thực thi pháp luật và các trường đại học. cơ quan giám sát dữ liệu của Vương quốc Anh kiện Clearview AI 7.5 triệu bảng Anh vì đã thu thập hình ảnh của cư dân Vương quốc Anh từ phương tiện truyền thông xã hội mà không có sự đồng ý để tạo cơ sở dữ liệu gồm 20 tỷ hình ảnh.
5. An ninh
Bảo mật có nghĩa là đảm bảo rằng các hệ thống AI an toàn và không đe dọa xã hội. Một ví dụ về mối đe dọa bảo mật AI là các cuộc tấn công bất lợi. Các cuộc tấn công độc hại này lừa các mô hình ML đưa ra các quyết định không chính xác. Bảo vệ các hệ thống AI khỏi các cuộc tấn công mạng là bắt buộc đối với AI có trách nhiệm.
4 thách thức và rủi ro chính của AI có trách nhiệm
1. Thiên kiến
Những thành kiến của con người liên quan đến tuổi tác, giới tính, quốc tịch và chủng tộc có thể ảnh hưởng đến việc thu thập dữ liệu, có khả năng dẫn đến các mô hình AI bị sai lệch. Nghiên cứu của Bộ Thương mại Hoa Kỳ phát hiện ra rằng AI nhận dạng khuôn mặt xác định sai người da màu. Do đó, việc sử dụng AI để nhận dạng khuôn mặt trong thực thi pháp luật có thể dẫn đến các vụ bắt giữ oan uổng. Ngoài ra, việc tạo ra các mô hình AI công bằng là một thách thức vì có 21 tham số khác nhau để xác định chúng. Vì vậy, có một sự đánh đổi; thỏa mãn một tham số AI hợp lý có nghĩa là hy sinh một tham số khác.
2. Khả năng diễn giải
Khả năng giải thích là một thách thức quan trọng trong việc phát triển AI có trách nhiệm. Nó đề cập đến việc hiểu mô hình học máy đã đạt được một kết luận cụ thể như thế nào.
Mạng lưới thần kinh sâu thiếu khả năng diễn giải vì chúng hoạt động dưới dạng Hộp đen với nhiều lớp tế bào thần kinh ẩn, khiến quá trình ra quyết định trở nên khó hiểu. Đây có thể là một thách thức trong việc ra quyết định có tính rủi ro cao như chăm sóc sức khỏe, tài chính, v.v.
Hơn nữa, việc chính thức hóa khả năng diễn giải trong các mô hình ML là một thách thức vì nó chủ quan và miền cụ thể.
3. Quản trị
Quản trị đề cập đến một bộ quy tắc, chính sách và thủ tục giám sát việc phát triển và triển khai các hệ thống AI. Gần đây, đã có những tiến bộ đáng kể trong diễn ngôn quản trị AI, với các tổ chức đưa ra các khuôn khổ và nguyên tắc đạo đức.
hướng dẫn đạo đức cho AI đáng tin cậy của EU, Khung đạo đức AI của Úcvà Nguyên tắc AI của OECD là những ví dụ về khung quản trị AI.
Nhưng sự tiến bộ nhanh chóng của AI trong những năm gần đây có thể vượt xa các khuôn khổ quản trị AI này. Để đạt được mục tiêu này, cần phải có một khuôn khổ đánh giá tính công bằng, khả năng diễn giải và đạo đức của các hệ thống AI.
4. Quy
Khi các hệ thống AI trở nên phổ biến hơn, cần phải có quy định để xem xét các giá trị đạo đức và xã hội. Phát triển quy định không cản trở sự đổi mới của AI là một thách thức quan trọng đối với AI có trách nhiệm.
Ngay cả với Quy định chung về bảo vệ dữ liệu (GDPR), Đạo luật về quyền riêng tư của người tiêu dùng California (CCPA) và Luật bảo vệ thông tin cá nhân (PIPL) với tư cách là các cơ quan quản lý, các nhà nghiên cứu AI nhận thấy rằng 97% của các trang web EU không tuân thủ các yêu cầu khung pháp lý GDPR.
Hơn nữa, các nhà lập pháp phải đối mặt với một thách thức đáng kể trong việc đạt được sự đồng thuận về định nghĩa AI bao gồm cả hệ thống AI cổ điển và các ứng dụng AI mới nhất.
3 lợi ích chính của AI có trách nhiệm
1. Giảm sai lệch
AI có trách nhiệm làm giảm sự thiên vị trong quá trình ra quyết định, xây dựng niềm tin vào hệ thống AI. Giảm sự thiên vị trong các hệ thống AI có thể mang lại một hệ thống chăm sóc sức khỏe công bằng và bình đẳng, đồng thời giảm sự thiên vị trong các hệ thống dựa trên AI dịch vụ tài chính và vv
2. Nâng cao tính minh bạch
Trí tuệ nhân tạo có trách nhiệm tạo ra các ứng dụng trí tuệ nhân tạo minh bạch, tạo dựng niềm tin vào các hệ thống trí tuệ nhân tạo. Hệ thống AI trong suốt giảm nguy cơ lỗi và sử dụng sai. Tính minh bạch được nâng cao giúp việc kiểm tra các hệ thống AI dễ dàng hơn, chiếm được lòng tin của các bên liên quan và có thể dẫn đến các hệ thống AI có trách nhiệm giải trình.
3. Bảo mật tốt hơn
Các ứng dụng AI an toàn đảm bảo quyền riêng tư của dữ liệu, tạo ra đầu ra đáng tin cậy và vô hại, đồng thời an toàn trước các cuộc tấn công mạng.
Những gã khổng lồ công nghệ như microsoft và Google, đi đầu trong việc phát triển các hệ thống AI, đã phát triển các nguyên tắc AI có trách nhiệm. AI có trách nhiệm đảm bảo rằng sự đổi mới trong AI không gây hại cho cá nhân và xã hội.
Các nhà lãnh đạo tư tưởng, nhà nghiên cứu, tổ chức và cơ quan pháp lý nên liên tục sửa đổi các tài liệu về AI có trách nhiệm để đảm bảo một tương lai an toàn cho đổi mới AI.
Để biết thêm nội dung liên quan đến AI, hãy truy cập đoàn kết.ai.
Haziqa là Nhà khoa học dữ liệu có nhiều kinh nghiệm viết nội dung kỹ thuật cho các công ty AI và SaaS.
Bạn có thể thích
Kiểu tức thì: Bảo toàn kiểu trong quá trình tạo văn bản thành hình ảnh
LoReFT: Tinh chỉnh biểu diễn cho các mô hình ngôn ngữ
Ngoài các công cụ tìm kiếm: Sự trỗi dậy của các tác nhân duyệt web được hỗ trợ bởi LLM
Tăng cường tính minh bạch và tin cậy của AI với AI tổng hợp
Trung tâm dữ liệu GPU làm căng lưới điện: Cân bằng giữa đổi mới AI và tiêu thụ năng lượng
Chip khứu giác mô phỏng sinh học đột phá sử dụng AI để cho phép robot ngửi