Connect with us

Làm thế nào AI Giải thích Xây dựng Niềm tin và Trách nhiệm

Lãnh đạo tư tưởng

Làm thế nào AI Giải thích Xây dựng Niềm tin và Trách nhiệm

mm

Các doanh nghiệp đã lao đầu vào việc áp dụng AI, chạy đua để triển khai các rô-bốt trò chuyện, các công cụ tạo nội dung và hỗ trợ quyết định trên toàn bộ hoạt động của họ. Theo McKinsey, 78% các công ty sử dụng AI trong ít nhất một chức năng kinh doanh.

Sự cuồng nhiệt trong việc triển khai là dễ hiểu — mọi người đều nhìn thấy giá trị tiềm năng. Nhưng trong sự vội vàng này, nhiều tổ chức đã bỏ qua thực tế rằng tất cả các công nghệ dựa trên mạng nơ-ron, bao gồm mọi LLM và hệ thống AI tạo sinh được sử dụng ngày nay và trong tương lai gần, đều chia sẻ một điểm yếu đáng kể: Chúng là không thể đoán trước và cuối cùng là không thể kiểm soát được.

Một số người đã học được rằng có thể có những hậu quả thực sự khi kết quả. Tại một đại lý Chevrolet đã triển khai một rô-bốt trò chuyện trên trang web của họ, một khách hàng đã thuyết phục rô-bốt được hỗ trợ bởi ChatGPT bán cho anh ta một chiếc Chevy Tahoe giá 58.195 đô la với giá chỉ 1 đô la. Một khách hàng khác đã yêu cầu rô-bốt trò chuyện viết một kịch bản Python cho các phương trình động lực học chất lỏng phức tạp, và nó đã làm điều đó một cách vui vẻ. Đại lý đã nhanh chóng vô hiệu hóa các rô-bốt sau khi những sự việc này trở nên lan truyền.

Năm ngoái, Air Canada đã thua trong một vụ kiện tại tòa án yêu cầu nhỏ khi họ lập luận rằng rô-bốt trò chuyện của họ, đã cung cấp cho một hành khách thông tin không chính xác về giảm giá do tang, “là một thực thể pháp lý riêng biệt chịu trách nhiệm về hành động của mình.”

Sự không thể đoán trước này bắt nguồn từ kiến trúc cơ bản của LLM. Chúng quá lớn và phức tạp đến mức không thể hiểu được làm thế nào chúng đến được các câu trả lời cụ thể hoặc dự đoán những gì chúng sẽ tạo ra cho đến khi chúng tạo ra đầu ra. Hầu hết các tổ chức đang phản ứng với vấn đề độ tin cậy này mà không nhận ra đầy đủ nó.

Giải pháp thông thường là kiểm tra kết quả AI bằng tay, điều này hoạt động nhưng hạn chế nghiêm trọng tiềm năng của công nghệ. Khi AI được giao nhiệm vụ hỗ trợ cá nhân — soạn thảo văn bản, ghi lại các cuộc họp, tóm tắt tài liệu và giúp với việc mã hóa — nó mang lại những lợi ích về năng suất khiêm tốn. Không đủ để cách mạng hóa nền kinh tế.

Lợi ích thực sự của AI sẽ đến khi chúng ta ngừng sử dụng nó để hỗ trợ các công việc hiện có và thay vào đó là tái cấu trúc toàn bộ quy trình, hệ thống và công ty để sử dụng AI mà không cần sự can thiệp của con người ở mọi bước. Hãy xem xét quá trình xử lý khoản vay: nếu một ngân hàng cung cấp cho các nhân viên cho vay một trợ lý AI để tóm tắt các ứng dụng, họ có thể làm việc nhanh hơn 20-30%. Nhưng triển khai AI để xử lý toàn bộ quá trình quyết định (với các biện pháp bảo vệ phù hợp) có thể cắt giảm chi phí hơn 90% và loại bỏ gần như tất cả thời gian xử lý. Đây là sự khác biệt giữa cải tiến dần dần và chuyển đổi.

Con đường đến việc triển khai AI đáng tin cậy

Sử dụng đầy đủ tiềm năng của AI mà không sa vào sự không thể đoán trước của nó đòi hỏi sự kết hợp tinh tế giữa các phương pháp kỹ thuật và tư duy chiến lược. Mặc dù một số phương pháp hiện tại cung cấp các giải pháp một phần, nhưng mỗi phương pháp đều có những hạn chế đáng kể.

Một số tổ chức cố gắng giảm thiểu các vấn đề về độ tin cậy thông qua việc điều chỉnh hệ thống — điều khiển tinh vi hành vi của AI theo các hướng mong muốn để nó phản ứng theo các cách cụ thể đối với các đầu vào nhất định. Các nhà nghiên cứu của Anthropic đã chứng minh sự mong manh của phương pháp này bằng cách xác định một “tính năng Cầu Golden Gate” trong mạng nơ-ron của Claude và, bằng cách khuếch đại nhân tạo nó, khiến Claude phát triển một cuộc khủng hoảng về bản sắc. Khi được hỏi về hình thức vật lý của nó, thay vì thừa nhận nó không có, Claude tuyên bố Cầu Golden Gate chính nó. Thí nghiệm này đã tiết lộ làm thế nào dễ dàng một mô hình có thể thay đổi chức năng cốt lõi và rằng mọi điều chỉnh đều đại diện cho một sự đánh đổi, có thể cải thiện một khía cạnh của hiệu suất trong khi làm suy giảm những khía cạnh khác.

Một cách tiếp cận khác là để AI giám sát các AI khác. Mặc dù phương pháp phân lớp này có thể bắt được một số lỗi, nhưng nó lại giới thiệu thêm sự phức tạp và vẫn còn thiếu sót về độ tin cậy toàn diện. Các rào cản được mã hóa cứng là một sự can thiệp trực tiếp hơn, như chặn các phản hồi chứa các từ khóa hoặc mẫu nhất định, chẳng hạn như các thành phần tiền chất cho vũ khí. Mặc dù hiệu quả chống lại các vấn đề đã biết, nhưng những rào cản này không thể dự đoán các đầu ra có vấn đề mới nổi từ những hệ thống phức tạp này.

Một cách tiếp cận hiệu quả hơn là xây dựng các quy trình tập trung vào AI có thể hoạt động tự chủ, với sự giám sát của con người được đặt chiến lược để bắt các vấn đề về độ tin cậy trước khi chúng gây ra các vấn đề trong thế giới thực. Bạn không muốn AI trực tiếp phê duyệt hoặc từ chối các ứng dụng khoản vay, nhưng AI có thể thực hiện một đánh giá ban đầu cho các nhà điều hành con người để xem xét. Điều này có thể hoạt động, nhưng nó phụ thuộc vào sự cảnh giác của con người để bắt các lỗi của AI và làm suy yếu các lợi ích về hiệu quả từ việc sử dụng AI.

Xây dựng cho tương lai

Những giải pháp một phần này chỉ ra một cách tiếp cận toàn diện hơn. Các tổ chức mà cơ bản là suy nghĩ lại cách họ thực hiện công việc của mình thay vì chỉ tăng cường các quy trình hiện có với sự hỗ trợ của AI sẽ có được lợi thế lớn nhất. Nhưng AI không bao giờ nên là bước cuối cùng trong một quy trình hoặc quyết định có nguy cơ cao, vậy con đường tiến bộ nào là tốt nhất?

Trước hết, AI xây dựng một quy trình có thể lặp lại sẽ đáng tin cậy và minh bạch để cung cấp các kết quả nhất quán. Thứ hai, con người xem xét quy trình để đảm bảo họ hiểu nó hoạt động như thế nào và rằng các đầu vào là phù hợp. Cuối cùng, quy trình chạy tự động — không sử dụng AI — với việc xem xét định kỳ kết quả của con người.

Hãy xem xét ngành công nghiệp bảo hiểm. Cách tiếp cận thông thường có thể thêm các trợ lý AI để giúp các nhà xử lý yêu cầu làm việc hiệu quả hơn. Một cách tiếp cận cách mạng hơn sẽ sử dụng AI để phát triển các công cụ mới — như tầm nhìn máy tính phân tích ảnh thiệt hại hoặc các mô hình phát hiện gian lận nâng cao để xác định các mẫu đáng ngờ — và sau đó kết hợp các công cụ này vào các hệ thống tự động được quản lý bởi các quy tắc rõ ràng, có thể hiểu được. Con người sẽ thiết kế và giám sát các hệ thống này thay vì xử lý các yêu cầu cá nhân.

Cách tiếp cận này duy trì sự giám sát của con người tại điểm quan trọng nhất: thiết kế và xác thực hệ thống chính nó. Nó cho phép có những lợi ích về hiệu quả theo cấp số nhân trong khi loại bỏ rủi ro rằng sự không thể đoán trước của AI sẽ dẫn đến các kết quả có hại trong các trường hợp cá nhân.

Một AI có thể xác định các chỉ số tiềm năng về khả năng trả nợ khoản vay trong dữ liệu giao dịch, ví dụ. Các chuyên gia con người sau đó có thể đánh giá các chỉ số này về sự công bằng và xây dựng các mô hình rõ ràng, có thể hiểu được để xác nhận sức mạnh dự đoán của chúng.

Cách tiếp cận này đến AI giải thích sẽ tạo ra một ranh giới rõ ràng hơn giữa các tổ chức sử dụng AI một cách bề mặt và những tổ chức chuyển đổi hoạt động của mình xung quanh nó. Những tổ chức sau sẽ ngày càng dẫn đầu trong các ngành của họ, có khả năng cung cấp các sản phẩm và dịch vụ ở mức giá mà các đối thủ cạnh tranh không thể sánh kịp.

Không giống như AI hộp đen, các hệ thống AI giải thích đảm bảo con người duy trì sự giám sát có ý nghĩa về ứng dụng của công nghệ, tạo ra một tương lai nơi AI tăng cường tiềm năng của con người thay vì chỉ thay thế lao động của con người.

Jamie Twiss là một ngân hàng có kinh nghiệm và một nhà khoa học dữ liệu làm việc tại giao điểm của khoa học dữ liệu, trí tuệ nhân tạo và cho vay tiêu dùng. Hiện tại, ông đang giữ vị trí Giám đốc Điều hành của Carrington Labs, một nhà cung cấp giải pháp chấm điểm tín dụng và cho vay dựa trên trí tuệ nhân tạo có thể giải thích được. Trước đó, ông từng là Giám đốc Dữ liệu tại một ngân hàng lớn của Úc. Trước khi đó, ông đã làm việc trong nhiều vai trò khác nhau trong lĩnh vực ngân hàng và dịch vụ tài chính sau khi bắt đầu sự nghiệp của mình với tư cách là một nhà tư vấn tại McKinsey & Company.