Lãnh đạo tư tưởng
Khả năng giải thích có thể giải quyết vấn đề AI của mọi ngành công nghiệp: Thiếu minh bạch

By: Migüel Jetté, VP of R&D Speech, Rev.
Trong giai đoạn đầu, AI có thể dựa vào sự mới mẻ của nó. Nó được chấp nhận khi học máy học chậm và duy trì một quá trình không minh bạch nơi tính toán của AI là không thể thâm nhập được bởi người tiêu dùng trung bình. Nhưng điều đó đang thay đổi. Khi nhiều ngành công nghiệp như chăm sóc sức khỏe, tài chính và hệ thống tư pháp hình sự bắt đầu tận dụng AI theo những cách có thể có tác động thực sự đến cuộc sống của mọi người, nhiều người muốn biết cách các thuật toán được sử dụng, cách dữ liệu được thu thập và chính xác đến mức nào là khả năng của nó. Nếu các công ty muốn ở vị trí hàng đầu trong đổi mới trong thị trường của họ, họ cần dựa vào AI mà khán giả của họ sẽ tin tưởng. Khả năng giải thích AI là thành phần quan trọng để làm sâu sắc thêm mối quan hệ đó.
Khả năng giải thích AI khác với các thủ tục AI tiêu chuẩn vì nó cung cấp cho mọi người một cách để hiểu làm thế nào các thuật toán học máy tạo ra đầu ra. AI giải thích được là một hệ thống có thể cung cấp cho mọi người các kết quả tiềm năng và điểm yếu. Đó là một hệ thống học máy có thể đáp ứng mong muốn rất con người về công bằng, trách nhiệm và tôn trọng quyền riêng tư. AI giải thích được là điều cần thiết cho các doanh nghiệp để xây dựng niềm tin với người tiêu dùng.
Trong khi AI đang mở rộng, các nhà cung cấp AI cần hiểu rằng hộp đen không thể. Các mô hình hộp đen được tạo trực tiếp từ dữ liệu và thường không even nhà phát triển tạo ra thuật toán có thể xác định được điều gì đã thúc đẩy thói quen học được của máy. Nhưng người tiêu dùng có ý thức không muốn tham gia vào điều gì đó không thể thâm nhập được đến mức không thể được trách nhiệm. Mọi người muốn biết làm thế nào một thuật toán AI đến được một kết quả cụ thể mà không có bí ẩn về đầu vào và đầu ra được kiểm soát, đặc biệt khi sai lầm của AI thường do thiên vị máy. Khi AI trở nên tiên tiến hơn, mọi người muốn truy cập vào quá trình học máy để hiểu làm thế nào thuật toán đã đến được kết quả cụ thể của nó. Các nhà lãnh đạo trong mọi ngành công nghiệp phải hiểu rằng sớm hay muộn, mọi người sẽ không còn muốn truy cập này mà yêu cầu nó như một mức độ minh bạch cần thiết.
Các hệ thống ASR như trợ lý giọng nói, công nghệ chuyển录 và các dịch vụ khác chuyển đổi giọng nói con người thành văn bản đặc biệt bị ảnh hưởng bởi thiên vị. Khi dịch vụ được sử dụng cho các biện pháp an toàn, sai lầm do giọng, tuổi tác hoặc nền tảng của một người có thể là những sai lầm nghiêm trọng, vì vậy vấn đề phải được xem xét nghiêm túc. ASR có thể được sử dụng hiệu quả trong máy quay cảnh sát, ví dụ, để tự động ghi và chuyển录 các tương tác — giữ một bản ghi mà, nếu được chuyển录 chính xác, có thể cứu sống. Thực hành giải thích sẽ yêu cầu AI không chỉ dựa vào dữ liệu đã mua, mà còn tìm hiểu các đặc điểm của âm thanh đến mà có thể góp phần vào lỗi nếu có. Điều gì là hồ sơ âm thanh? Có tiếng ồn ở nền không? Người nói có phải từ một quốc gia không phải tiếng Anh đầu tiên hoặc từ một thế hệ sử dụng từ vựng mà AI chưa học được không? Học máy cần chủ động học nhanh hơn và nó có thể bắt đầu bằng cách thu thập dữ liệu có thể giải quyết các biến số này.
Sự cần thiết đang trở nên rõ ràng, nhưng con đường để thực hiện phương pháp này sẽ không luôn có một giải pháp dễ dàng. Câu trả lời truyền thống cho vấn đề là thêm nhiều dữ liệu, nhưng một giải pháp tinh vi hơn sẽ cần thiết, đặc biệt khi các tập dữ liệu đã mua mà nhiều công ty sử dụng có thiên vị. Điều này là do lịch sử, nó đã khó giải thích một quyết định cụ thể được đưa ra bởi AI và đó là do bản chất của sự phức tạp của các mô hình từ đầu đến cuối. Tuy nhiên, chúng ta có thể làm được điều đó bây giờ, và chúng ta có thể bắt đầu bằng cách hỏi làm thế nào mọi người mất niềm tin vào AI ngay từ đầu.
Không thể tránh khỏi, AI sẽ mắc sai lầm. Các công ty cần xây dựng các mô hình nhận thức được về các điểm yếu tiềm năng, xác định khi và nơi các vấn đề đang xảy ra, và tạo ra các giải pháp liên tục để xây dựng các mô hình AI mạnh mẽ hơn:
- Khi có điều gì đó sai, các nhà phát triển sẽ cần giải thích những gì đã xảy ra và phát triển một kế hoạch ngay lập tức để cải thiện mô hình để giảm thiểu các sai lầm tương tự trong tương lai.
- Để máy thực sự biết liệu nó có đúng hay không, các nhà khoa học cần tạo một vòng lặp phản hồi để AI có thể học được điểm yếu của nó và tiến hóa.
- Một cách khác để ASR xây dựng niềm tin trong khi AI vẫn đang cải thiện là tạo một hệ thống có thể cung cấp điểm số tin cậy, và đưa ra lý do tại sao AI ít tin cậy hơn. Ví dụ, các công ty thường tạo ra điểm số từ 0 đến 100 để phản ánh sự không hoàn hảo của AI và thiết lập minh bạch với khách hàng của họ. Trong tương lai, các hệ thống có thể cung cấp giải thích hậu kỳ về lý do tại sao âm thanh khó khăn bằng cách cung cấp thêm siêu dữ liệu về âm thanh, chẳng hạn như mức độ tiếng ồn nhận thức hoặc một giọng nói ít được hiểu.
Minh bạch bổ sung sẽ dẫn đến sự giám sát của con người tốt hơn về đào tạo và hiệu suất AI. Càng minh bạch về nơi chúng ta cần cải thiện, chúng ta càng có trách nhiệm thực hiện các cải thiện đó. Ví dụ, một nhà nghiên cứu có thể muốn biết tại sao văn bản sai được xuất ra để họ có thể giảm thiểu vấn đề, trong khi một người chuyển录 có thể muốn bằng chứng về lý do tại sao ASR hiểu lầm đầu vào để giúp đánh giá tính hợp lệ của nó. Giữ con người trong vòng lặp có thể giảm thiểu một số vấn đề rõ ràng nhất khi AI không được kiểm soát. Nó cũng có thể tăng tốc thời gian cần thiết để AI bắt lỗi, cải thiện và cuối cùng sửa chữa chính nó trong thời gian thực.
AI có khả năng cải thiện cuộc sống của mọi người, nhưng chỉ khi con người xây dựng nó để sản xuất đúng cách. Chúng ta cần phải chịu trách nhiệm không chỉ các hệ thống này mà còn những người đứng sau sự đổi mới. Các hệ thống AI trong tương lai được dự kiến sẽ tuân thủ các nguyên tắc do con người đặt ra, và chỉ khi đó chúng ta mới có một hệ thống mà mọi người tin tưởng. Đã đến lúc đặt nền tảng và phấn đấu cho những nguyên tắc đó ngay bây giờ trong khi vẫn còn là con người phục vụ chính mình.












