Connect with us

Lãnh đạo tư tưởng

Làm thế nào Trí tuệ nhân tạo giải thích được tăng cường độ tin cậy và đáng tin cậy

mm

Khi Trí tuệ nhân tạo (AI) đang được dân chủ hóa trên toàn các doanh nghiệp, nó đang dần được nhúng vào trong cấu trúc của sự tồn tại của chúng ta. Một khía cạnh quan trọng của sự dân chủ hóa này là người dùng cuối phải có thể hiểu hoàn toàn quá trình và cơ chế mà AI sử dụng để đi đến một kết luận hoặc cách nó hoạt động để đưa ra kết quả mong muốn. Khi là con người, chúng ta có một nhu cầu sâu sắc để khám phá “tại sao” và “như thế nào” của bất kỳ hiện tượng nào, điều này đã tăng tốc tiến bộ công nghệ của chúng ta. Trong bối cảnh của AI, sự hiểu biết này được gọi là “giải thích được”.

Tại sao Giải thích được là nhu cầu của giờ?

Hầu hết mọi lần, chúng ta tiếp cận AI như một “hộp đen”, nơi chúng ta chỉ có kiến thức về đầu vào và đầu ra, nhưng ở đâu đó các quá trình được sử dụng bị mất trên chúng ta. Sự phức tạp này là sự thật rằng các thuật toán cung cấp năng lượng cho hầu hết các hình thức AI phổ biến, chẳng hạn như hệ thống dự đoán dựa trên học sâu phức tạp và Xử lý Ngôn ngữ Tự nhiên (NLP) là rất trừu tượng ngay cả đối với những người thực hành thành công nhất.

Tin cậy và Minh bạch: Để người dùng tin tưởng vào các dự đoán của AI, nó phải có một mức độ giải thích được nội tại trong nó. Ví dụ, nếu một bác sĩ phải đề xuất một phương pháp điều trị dựa trên dự đoán của AI, anh ta / cô ta cần phải tự tin vào dự đoán. Một ngân hàng phải có sự tự tin đầy đủ về quyết định từ chối hoặc phê duyệt một khoản vay và có thể chứng minh được điều đó cho tất cả các bên liên quan. Một AI được sử dụng để sàng lọc và tuyển dụng phải chứng minh rằng các cơ chế cơ bản là công bằng và công bằng đối với tất cả các nhóm ứng viên.

Làm cho AI trở nên con người hơn và tăng cường việc áp dụng: Trong Báo cáo trạng thái AI năm 2020 của Mckinsey chúng ta biết rằng một nhà sản xuất sử dụng các mô hình cực kỳ minh bạch để được chấp nhận từ công nhân nhà máy của họ, những người cần tin tưởng vào các phán quyết được đưa ra bởi AI về sự an toàn của họ. Đối với việc áp dụng AI nhanh chóng, việc có được sự đồng ý của các bên liên quan là chướng ngại vật chính để mở rộng từ các giải pháp điểm đơn giản đến cấp độ doanh nghiệp và tận dụng tối đa khoản đầu tư. Điều này được giảm nhẹ rất nhiều nếu hiệu suất là giải thích được cho khán giả lớn hơn. Từ góc độ kinh doanh, giải thích được tăng cường trải nghiệm người dùng tổng thể và tăng sự hài lòng của khách hàng. Theo kết quả của một cuộc khảo sát của Viện Giá trị Kinh doanh IBM, 68% các giám đốc điều hành hàng đầu tin rằng khách hàng sẽ đòi hỏi nhiều giải thích hơn từ AI trong ba năm tới.

Khám phá các thiên vị và cải thiện hiệu suất mô hình: Một nhà phát triển cần biết cách cải thiện hiệu suất của mô hình và cách chính xác để gỡ lỗi và tinh chỉnh nó. Một khuôn khổ giải thích rõ ràng là một trong những công cụ quan trọng nhất để thực hiện phân tích彻底 cần thiết.

Lấy được những hiểu biết sắc nét, toàn diện: Một cái nhìn 360 độ hoàn chỉnh là cần thiết để hiểu đầy đủ bất kỳ đơn thuốc nào được tạo ra bởi AI. Ví dụ, nếu AI được sử dụng để đưa ra quyết định đầu tư, người ta cũng cần biết lý do đằng sau nó, để chuyển giao kiến thức này sang các lĩnh vực khác và cũng hiểu được những hạn chế tiềm ẩn của việc đưa ra quyết định đó. Sự hiểu biết mạnh mẽ về cách AI hoạt động cũng sẽ cho phép những người ra quyết định khám phá các trường hợp sử dụng mới.

Quy định và Trách nhiệm: Một số quy định như GDPR đang yêu cầu quyền giải thích, để giải quyết các vấn đề trách nhiệm phát sinh từ quá trình ra quyết định tự động. Trong các hệ thống như xe tự hành, nếu có điều gì đó xảy ra dẫn đến mất mát về tính mạng và tài sản, kiến thức phù hợp về nguyên nhân gốc rễ là cần thiết, điều này sẽ khó xác định trong một hệ thống hộp đen.

Làm thế nào AI có thể trở nên giải thích được hơn?

Các Hệ thống Trí tuệ nhân tạo Giải thích được (XAI) được phát triển bằng cách sử dụng các kỹ thuật khác nhau tập trung vào việc giải thích mô hình như một toàn thể hoặc giải thích lý do đằng sau từng dự đoán thông qua sự hỗ trợ của một số thuật toán.

Hầu hết tất cả các kỹ thuật giải thích đều dựa trên:

  • Phân chia mô hình thành các thành phần riêng lẻ)
  • Visual hóa dự đoán mô hình (ví dụ, nếu một mô hình phân loại một chiếc xe là một thương hiệu nhất định, nó sẽ nhấn mạnh phần nào gây ra nó được gắn cờ như vậy)
  • Khai thác Giải thích (sử dụng các kỹ thuật học máy để tìm dữ liệu liên quan giải thích dự đoán của một thuật toán trí tuệ nhân tạo).

Trong một kỹ thuật gọi là mô hình proxy, một mô hình đơn giản và dễ hiểu hơn như một cây quyết định được sử dụng để đại diện gần đúng cho mô hình AI tinh vi hơn. Những giải thích đơn giản này cung cấp một ý tưởng công bằng về mô hình ở mức cao nhưng đôi khi có thể che giấu một số sắc thái.

Một cách tiếp cận khác được gọi là “giải thích được bằng thiết kế” Cách tiếp cận này đặt ra các hạn chế trong thiết kế và đào tạo của mạng AI theo một cách mới, nhằm xây dựng toàn bộ mạng từ các phần nhỏ và đơn giản hơn, giải thích được. Điều này liên quan đến sự đánh đổi giữa mức độ chính xác với giải thích được và hạn chế một số cách tiếp cận từ bộ công cụ của nhà khoa học dữ liệu. Nó cũng có thể rất tốn kém về tính toán.

Đào tạo và kiểm tra AI cũng có thể sử dụng các kỹ thuật xác minh dữ liệu agnostic như mô hình cục bộ giải thích được (LIME) và Giải thích Thêm Shapley (SHAP), và những kỹ thuật này nên được điều chỉnh để đạt được độ chính xác cao thông qua việc sử dụng F-score, độ chính xác và các chỉ số khác. Và, tất nhiên, tất cả các kết quả nên được theo dõi và xác minh bằng cách sử dụng nhiều loại dữ liệu. Sử dụng LIME, ví dụ, các tổ chức có thể tạo ra các mô hình tạm thời mô phỏng dự đoán của các thuật toán không minh bạch như học máy. Những mô hình LIME này sau đó có thể tạo ra nhiều phép biến đổi dựa trên một tập dữ liệu nhất định và đầu ra tương ứng, điều này sau đó có thể được sử dụng để đào tạo các mô hình đơn giản và giải thích được hơn cùng với danh sách đầy đủ các giải thích cho từng quyết định và / hoặc dự đoán. Khung SHAP có nền tảng trong lý thuyết trò chơi và cụ thể là từ lý thuyết trò chơi hợp tác là một mô hình kết hợp phân bổ tín dụng tối ưu với giải thích cục bộ bằng cách sử dụng các giá trị Shapley ban đầu từ lý thuyết trò chơi và các hậu duệ của chúng.

Các Hoạt động Nguyên tắc

Tuy nhiên, ở mức độ chiến lược hơn, các khuôn khổ độ tin cậy AI nên bao gồm một tập hợp rộng các nguyên tắc nhằm đảm bảo kết quả phù hợp cả khi triển khai ban đầu và theo thời gian khi các mô hình phát triển trong sự hiện diện của các hoàn cảnh thay đổi. Ở mức tối thiểu, các khuôn khổ này nên bao gồm các điều sau:

  • Phát hiện thiên vị – tất cả các tập dữ liệu nên được loại bỏ thiên vị và các thuộc tính phân biệt và sau đó được đưa ra trọng lượng và quyền quyết định khi áp dụng cho mô hình đào tạo;
  • Sự tham gia của con người – các nhà điều hành nên có thể điều tra và giải thích đầu ra thuật toán tại mọi thời điểm, đặc biệt khi các mô hình được sử dụng cho thực thi pháp luật và bảo tồn các quyền tự do dân sự;
  • Giải thích – tất cả các dự đoán phải có thể chịu được sự kiểm tra, điều này theo bản chất yêu cầu một mức độ minh bạch cao để cho phép các quan sát viên bên ngoài đánh giá các quá trình và tiêu chí được sử dụng để tạo ra kết quả;
  • Sao chép lại – các mô hình AI đáng tin cậy phải nhất quán trong dự đoán của chúng và phải thể hiện mức độ ổn định cao khi gặp dữ liệu mới.

Nhưng XAI không nên chỉ được xem xét như một phương tiện để cải thiện lợi nhuận, mà để mang lại trách nhiệm để đảm bảo rằng các tổ chức có thể giải thích và chứng minh ảnh hưởng của các sáng tạo của họ đối với xã hội nói chung.

Balakrishna, được biết đến rộng rãi với tên gọi Bali D.R., là Người đứng đầu Trí tuệ nhân tạo và Tự động hóa tại Infosys nơi ông thúc đẩy cả tự động hóa nội bộ cho Infosys và cung cấp dịch vụ tự động hóa độc lập tận dụng sản phẩm cho khách hàng. Bali đã gắn bó với Infosys hơn 25 năm và đã đảm nhiệm các vai trò bán hàng, quản lý chương trình và giao hàng trên các địa lý và lĩnh vực công nghiệp khác nhau.