Connect with us

AI 101

Explainable AI là gì?

mm

Khi trí tuệ nhân tạo (AI) ngày càng trở nên phức tạp và được áp dụng rộng rãi trong xã hội, một trong những tập hợp quy trình và phương pháp quan trọng nhất chính là AI có thể giải thích được, đôi khi được gọi là XAI. Explainable AI có thể được định nghĩa là:

  • Một tập hợp các quy trình và phương pháp giúp người dùng hiểu và tin tưởng vào kết quả của các thuật toán học máy.

Như bạn có thể đoán, khả năng giải thích này vô cùng quan trọng khi các thuật toán AI nắm quyền kiểm soát nhiều lĩnh vực, đi kèm với rủi ro về thiên kiến, thuật toán sai sót và các vấn đề khác. Bằng cách đạt được tính minh bạch thông qua khả năng giải thích, thế giới mới có thể thực sự tận dụng sức mạnh của AI. Explainable AI, như tên gọi của nó, giúp mô tả một mô hình AI, tác động và những thiên kiến tiềm ẩn của nó. Nó cũng đóng vai trò trong việc đặc trưng hóa độ chính xác, tính công bằng, tính minh bạch và kết quả của mô hình trong các quy trình ra quyết định dựa trên AI. Các tổ chức vận hành bằng AI ngày nay nên luôn áp dụng các quy trình AI có thể giải thích để giúp xây dựng niềm tin và sự tin tưởng vào các mô hình AI đang được sử dụng. Explainable AI cũng là chìa khóa để trở thành một công ty có trách nhiệm trong môi trường AI hiện nay. Bởi vì các hệ thống AI ngày nay rất tiên tiến, con người thường phải thực hiện một quá trình tính toán để truy ngược lại cách thuật toán đi đến kết quả của nó. Quá trình này trở thành một “hộp đen”, nghĩa là không thể hiểu được. Khi những mô hình không thể giải thích này được phát triển trực tiếp từ dữ liệu, không ai có thể hiểu điều gì đang xảy ra bên trong chúng. Bằng cách hiểu cách hệ thống AI hoạt động thông qua Explainable AI, các nhà phát triển có thể đảm bảo rằng hệ thống hoạt động như mong đợi. Nó cũng có thể giúp đảm bảo mô hình đáp ứng các tiêu chuẩn quy định và cung cấp cơ hội để mô hình bị thách thức hoặc thay đổi.

Image: Dr. Matt Turek/DARPA

Sự Khác Biệt Giữa AI và XAI

Một số khác biệt chính giúp phân biệt AI “thông thường” với AI có thể giải thích, nhưng quan trọng nhất là XAI triển khai các kỹ thuật và phương pháp cụ thể giúp đảm bảo mỗi quyết định trong quy trình ML đều có thể truy nguyên và giải thích được. Trong khi đó, AI thông thường thường đi đến kết quả bằng cách sử dụng một thuật toán ML, nhưng không thể hiểu đầy đủ cách thuật toán đi đến kết quả đó. Trong trường hợp của AI thông thường, việc kiểm tra độ chính xác là cực kỳ khó khăn, dẫn đến mất kiểm soát, trách nhiệm giải trình và khả năng kiểm toán.

Lợi Ích Của Explainable AI

Có nhiều lợi ích cho bất kỳ tổ chức nào muốn áp dụng Explainable AI, chẳng hạn như:

  • Kết Quả Nhanh Hơn: Explainable AI cho phép các tổ chức theo dõi và quản lý mô hình một cách có hệ thống để tối ưu hóa kết quả kinh doanh. Có thể liên tục đánh giá và cải thiện hiệu suất mô hình cũng như điều chỉnh quá trình phát triển mô hình.
  • Giảm Thiểu Rủi Ro: Bằng cách áp dụng các quy trình Explainable AI, bạn đảm bảo rằng các mô hình AI của mình có thể giải thích và minh bạch. Bạn có thể quản lý các yêu cầu về quy định, tuân thủ, rủi ro và các yêu cầu khác trong khi giảm thiểu chi phí kiểm tra thủ công. Tất cả điều này cũng giúp giảm thiểu rủi ro về thiên kiến ngoài ý muốn. 
  • Xây Dựng Niềm Tin: Explainable AI giúp thiết lập niềm tin vào AI trong sản xuất. Các mô hình AI có thể nhanh chóng được đưa vào sản xuất, bạn có thể đảm bảo khả năng diễn giải và giải thích, đồng thời quy trình đánh giá mô hình có thể được đơn giản hóa và minh bạch hơn.

Kỹ Thuật Cho Explainable AI

Có một số kỹ thuật XAI mà tất cả các tổ chức nên xem xét, và chúng bao gồm ba phương pháp chính: độ chính xác dự đoán, khả năng truy nguyênhiểu biết về quyết định. Phương pháp đầu tiên trong ba phương pháp, độ chính xác dự đoán, là điều cần thiết để sử dụng AI thành công trong hoạt động hàng ngày. Có thể thực hiện các mô phỏng và so sánh đầu ra XAI với kết quả trong tập dữ liệu huấn luyện, điều này giúp xác định độ chính xác dự đoán. Một trong những kỹ thuật phổ biến hơn để đạt được điều này được gọi là Local Interpretable Model-Agnostic Explanations (LIME), một kỹ thuật giải thích dự đoán của các bộ phân loại bởi thuật toán học máy. Phương pháp thứ hai là khả năng truy nguyên, đạt được bằng cách giới hạn cách thức đưa ra quyết định, cũng như thiết lập phạm vi hẹp hơn cho các quy tắc và đặc trưng học máy. Một trong những kỹ thuật truy nguyên phổ biến nhất là DeepLIFT, hay Deep Learning Important FeaTures. DeepLIFT so sánh sự kích hoạt của mỗi nơ-ron với nơ-ron tham chiếu của nó trong khi thể hiện mối liên kết có thể truy nguyên giữa mỗi nơ-ron được kích hoạt. Nó cũng cho thấy sự phụ thuộc giữa chúng. Phương pháp thứ ba và cuối cùng là hiểu biết về quyết định, tập trung vào con người, không giống như hai phương pháp còn lại. Hiểu biết về quyết định liên quan đến việc đào tạo tổ chức, cụ thể là nhóm làm việc với AI, để họ có thể hiểu cách thức và lý do AI đưa ra quyết định. Phương pháp này rất quan trọng để thiết lập niềm tin vào hệ thống.

Nguyên Tắc Của Explainable AI

Để cung cấp sự hiểu biết tốt hơn về XAI và các nguyên tắc của nó, Viện Tiêu chuẩn Quốc gia (NIST), thuộc Bộ Thương mại Hoa Kỳ, cung cấp định nghĩa cho bốn nguyên tắc của Explainable AI:

  1. Một hệ thống AI nên cung cấp bằng chứng, sự hỗ trợ hoặc lý luận cho mỗi đầu ra. 
  2. Một hệ thống AI nên đưa ra các giải thích mà người dùng của nó có thể hiểu được. 
  3. Giải thích phải phản ánh chính xác quy trình mà hệ thống sử dụng để đi đến đầu ra của nó. 
  4. Hệ thống AI chỉ nên hoạt động trong các điều kiện mà nó được thiết kế và không nên cung cấp đầu ra khi nó thiếu sự tự tin đủ vào kết quả.

Các nguyên tắc này có thể được tổ chức thêm thành:

  • Có Ý Nghĩa: Để đạt được nguyên tắc có ý nghĩa, người dùng nên hiểu được giải thích được cung cấp. Điều này cũng có thể có nghĩa là trong trường hợp một thuật toán AI được sử dụng bởi nhiều loại người dùng khác nhau, có thể có nhiều giải thích. Ví dụ, trong trường hợp của một chiếc xe tự lái, một giải thích có thể là…”AI phân loại túi nhựa trên đường là một tảng đá, và do đó đã hành động để tránh đâm vào nó.” Trong khi ví dụ này có thể phù hợp với người lái xe, nó sẽ không hữu ích lắm đối với một nhà phát triển AI đang tìm cách sửa chữa vấn đề. Trong trường hợp đó, nhà phát triển phải hiểu tại sao lại có sự phân loại sai. 
  • Độ Chính Xác Của Giải Thích: Không giống như độ chính xác đầu ra, độ chính xác của giải thích liên quan đến việc thuật toán AI giải thích chính xác cách nó đạt được đầu ra. Ví dụ, nếu một thuật toán phê duyệt khoản vay giải thích quyết định dựa trên thu nhập của đơn đăng ký trong khi thực tế, nó dựa trên nơi cư trú của người nộp đơn, thì giải thích đó sẽ không chính xác. 
  • Giới Hạn Kiến Thức: Giới hạn kiến thức của AI có thể đạt được theo hai cách, và nó liên quan đến việc đầu vào nằm ngoài chuyên môn của hệ thống. Ví dụ, nếu một hệ thống được xây dựng để phân loại các loài chim và nó được cung cấp một bức ảnh quả táo, nó sẽ phải có khả năng giải thích rằng đầu vào đó không phải là một con chim. Nếu hệ thống được cung cấp một bức ảnh mờ, nó sẽ phải có khả năng báo cáo rằng nó không thể xác định con chim trong ảnh, hoặc thay vào đó, việc nhận dạng của nó có độ tin cậy rất thấp.

Vai Trò Của Dữ Liệu Trong Explainable AI

Một trong những thành phần quan trọng nhất của Explainable AI là dữ liệu. Theo Google, liên quan đến dữ liệu và Explainable AI, “một hệ thống AI được hiểu rõ nhất bởi dữ liệu huấn luyện cơ bản và quy trình huấn luyện, cũng như mô hình AI kết quả.” Sự hiểu biết này phụ thuộc vào khả năng ánh xạ một mô hình AI đã được huấn luyện với tập dữ liệu chính xác được sử dụng để huấn luyện nó, cũng như khả năng kiểm tra dữ liệu một cách kỹ lưỡng. Để nâng cao khả năng giải thích của một mô hình, điều quan trọng là phải chú ý đến dữ liệu huấn luyện. Các nhóm nên xác định nguồn gốc của dữ liệu được sử dụng để huấn luyện một thuật toán, tính hợp pháp và đạo đức xung quanh việc thu thập nó, bất kỳ thiên kiến tiềm ẩn nào trong dữ liệu và những gì có thể làm để giảm thiểu bất kỳ thiên kiến nào. Một khía cạnh quan trọng khác của dữ liệu và XAI là dữ liệu không liên quan đến hệ thống

Alex McFarland là một nhà báo và cây viết về AI, chuyên khám phá những phát triển mới nhất trong lĩnh vực trí tuệ nhân tạo. Anh đã hợp tác với nhiều công ty khởi nghiệp AI và ấn phẩm trên toàn thế giới.