Lãnh đạo tư tưởng
Nếu AI của bạn đang bị ảo giác, đừng đổ lỗi cho AI

“Ảo giác” AI – những câu trả lời nghe có vẻ thuyết phục nhưng sai sự thật – thu hút rất nhiều sự chú ý của giới truyền thông, như bài báo gần đây của tờ New York Times, AI đang trở nên mạnh mẽ hơn, nhưng ảo giác của nó đang trở nên tệ hơn. Ảo giác là mối nguy hiểm thực sự khi bạn đang giao dịch với chatbot của người tiêu dùng. Trong bối cảnh ứng dụng AI trong kinh doanh, đây là mối quan tâm thậm chí còn nghiêm trọng hơn. May mắn thay, với tư cách là một nhà lãnh đạo công nghệ kinh doanh, tôi cũng có thể kiểm soát nó nhiều hơn. Tôi có thể đảm bảo rằng tác nhân có dữ liệu phù hợp để đưa ra câu trả lời có ý nghĩa.
Bởi vì đó là vấn đề thực sự. Trong kinh doanh, không có lý do gì để ảo giác AI. Đừng đổ lỗi cho AI. Hãy tự trách mình vì không sử dụng AI đúng cách.
Thời Gian trí tuệ nhân tạo công cụ ảo giác, chúng đang làm những gì chúng được thiết kế để làm – cung cấp câu trả lời tốt nhất có thể dựa trên dữ liệu chúng có sẵn. Khi chúng bịa ra mọi thứ, đưa ra câu trả lời không dựa trên thực tế, đó là vì họ thiếu dữ liệu có liên quan, không tìm thấy dữ liệu hoặc không hiểu câu hỏi. Đúng vậy, các mô hình mới như o3 và o4-mini của OpenAI đang tạo ra ảo giác nhiều hơn, hoạt động thậm chí còn "sáng tạo" hơn khi chúng không có câu trả lời tốt cho câu hỏi được đặt ra cho chúng. Đúng vậy, các công cụ mạnh hơn có thể tạo ra ảo giác nhiều hơn - nhưng chúng cũng có thể tạo ra kết quả mạnh mẽ và có giá trị hơn nếu chúng ta thiết lập chúng để thành công.
Nếu bạn không muốn AI của mình bị ảo giác, đừng để nó thiếu dữ liệu. Cung cấp cho AI dữ liệu tốt nhất, phù hợp nhất cho vấn đề bạn muốn nó giải quyết và nó sẽ không bị cám dỗ đi chệch hướng.
Ngay cả khi đó, khi làm việc với bất kỳ công cụ AI nào, tôi khuyên bạn nên giữ nguyên các kỹ năng tư duy phản biện của mình. Kết quả mà các tác nhân AI mang lại có thể hiệu quả và thú vị, nhưng vấn đề không phải là ngắt kết nối não của bạn và để phần mềm thực hiện mọi suy nghĩ thay bạn. Hãy tiếp tục đặt câu hỏi. Khi một tác nhân AI đưa ra cho bạn câu trả lời, hãy đặt câu hỏi cho câu trả lời đó để chắc chắn rằng nó có ý nghĩa và được hỗ trợ bởi dữ liệu. Nếu vậy, đó sẽ là một dấu hiệu đáng khích lệ cho thấy việc đặt câu hỏi tiếp theo là xứng đáng.
Càng đặt nhiều câu hỏi, bạn sẽ càng có được nhiều hiểu biết sâu sắc hơn.
Tại sao ảo giác xảy ra
Đây không phải là một bí ẩn. AI không cố gắng nói dối bạn. Mọi mô hình ngôn ngữ lớn (LLM) AI về cơ bản đều dự đoán từ hoặc số tiếp theo dựa trên xác suất.
Ở cấp độ cao, những gì đang xảy ra ở đây là LLM xâu chuỗi các câu và đoạn văn lại với nhau từng từ một, dự đoán từ tiếp theo sẽ xuất hiện trong câu dựa trên hàng tỷ ví dụ khác trong dữ liệu đào tạo của nó. Tổ tiên của LLM (ngoài Clippy) là các lời nhắc tự động hoàn thành cho tin nhắn văn bản và mã máy tính, các công cụ dịch ngôn ngữ tự động của con người và các hệ thống ngôn ngữ xác suất khác. Với sức mạnh tính toán vũ phu tăng lên, cộng với việc đào tạo trên khối lượng dữ liệu quy mô internet, các hệ thống này trở nên "thông minh" đủ để có thể thực hiện một cuộc trò chuyện đầy đủ qua trò chuyện, như thế giới đã học được với sự ra đời của ChatGPT.
Những người phản đối AI thích chỉ ra rằng điều này không giống với "trí thông minh" thực sự, chỉ là phần mềm có thể chắt lọc và tái tạo trí thông minh của con người đã được đưa vào. Yêu cầu nó tóm tắt dữ liệu trong một báo cáo bằng văn bản và nó bắt chước cách các nhà văn khác đã tóm tắt dữ liệu tương tự.
Với tôi, đây có vẻ là một lập luận mang tính học thuật miễn là dữ liệu là chính xác và phân tích có ích.
Điều gì xảy ra nếu AI không có dữ liệu? Nó sẽ điền vào chỗ trống. Đôi khi thì buồn cười. Đôi khi thì hoàn toàn lộn xộn.
Khi xây dựng Đại lý AI, điều này có nguy cơ gấp 10 lần. Các tác nhân được cho là cung cấp thông tin chi tiết có thể hành động được, nhưng họ đưa ra nhiều quyết định hơn trong quá trình thực hiện. Họ thực hiện các tác vụ nhiều bước, trong đó kết quả của bước 1 thông báo cho các bước 2, 3, 4, 5, … 10 … 20. Nếu kết quả của bước 1 không chính xác, lỗi sẽ được khuếch đại, khiến đầu ra ở bước 20 tệ hơn nhiều. Đặc biệt, vì các tác nhân có thể đưa ra quyết định và bỏ qua các bước.
Nếu thực hiện đúng, các tác nhân sẽ hoàn thành nhiều hơn cho doanh nghiệp triển khai chúng. Tuy nhiên, với tư cách là người quản lý sản phẩm AI, chúng ta phải nhận ra rủi ro lớn hơn đi kèm với phần thưởng lớn hơn.
Đó là những gì nhóm của chúng tôi đã làm. Chúng tôi đã thấy rủi ro và giải quyết nó. Chúng tôi không chỉ xây dựng một con robot lạ mắt; chúng tôi đảm bảo nó chạy trên dữ liệu phù hợp. Đây là những gì tôi nghĩ chúng tôi đã làm đúng:
- Xây dựng tác nhân để đặt đúng câu hỏi và xác minh rằng nó có đúng dữ liệu. Đảm bảo rằng quá trình nhập dữ liệu ban đầu của tác nhân thực sự mang tính quyết định hơn, ít "sáng tạo" hơn. Bạn muốn tác nhân nói khi nó không có đúng dữ liệu và không tiếp tục bước tiếp theo, thay vì tạo ra dữ liệu.
- Cấu trúc một sổ tay hướng dẫn cho người đại diện của bạn – đảm bảo rằng người đại diện không phải lúc nào cũng sáng tạo ra một kế hoạch mới mà có cách tiếp cận bán cấu trúc. Cấu trúc và bối cảnh cực kỳ quan trọng ở giai đoạn thu thập và phân tích dữ liệu. Bạn có thể để người đại diện thoải mái và hành động “sáng tạo” hơn khi họ có đủ thông tin và sẵn sàng viết tóm tắt, nhưng trước tiên hãy nắm bắt đúng thông tin.
- Xây dựng một công cụ chất lượng cao để trích xuất dữ liệu. Điều này không chỉ là một lệnh gọi API. Hãy dành thời gian để viết mã (mọi người vẫn làm điều đó) để tạo ra đúng số lượng và loại dữ liệu sẽ được thu thập, xây dựng các kiểm tra chất lượng vào quy trình.
- Yêu cầu tác nhân thể hiện công việc của mình. Tác nhân phải trích dẫn nguồn và liên kết đến nơi người dùng có thể xác minh dữ liệu, từ nguồn gốc và khám phá thêm. Không được phép có hành vi gian lận!
- Lan can: Hãy suy nghĩ về những gì có thể xảy ra sai sót và xây dựng các biện pháp bảo vệ chống lại các lỗi mà bạn hoàn toàn không được phép xảy ra. Trong trường hợp của chúng tôi, điều đó có nghĩa là khi tác nhân được giao nhiệm vụ phân tích thị trường không có dữ liệu – ý tôi là dữ liệu Similarweb của chúng tôi, không phải một nguồn dữ liệu ngẫu nhiên nào đó được lấy từ web – thì việc đảm bảo rằng nó không bịa ra điều gì đó là một lan can thiết yếu. Tốt hơn là tác nhân không thể trả lời hơn là đưa ra câu trả lời sai hoặc gây hiểu lầm.
Chúng tôi đã kết hợp các nguyên tắc này vào bản phát hành gần đây của ba tác nhân mới, với nhiều tác nhân khác sẽ ra mắt sau. Ví dụ, AI Meeting Prep Agent dành cho nhân viên bán hàng của chúng tôi không chỉ hỏi tên công ty mục tiêu mà còn hỏi chi tiết về mục tiêu của cuộc họp và người tham dự, chuẩn bị để đưa ra câu trả lời tốt hơn. Nó không cần phải đoán vì nó sử dụng nhiều dữ liệu công ty, dữ liệu kỹ thuật số và hồ sơ giám đốc điều hành để đưa ra các khuyến nghị.
Các tác nhân của chúng ta có hoàn hảo không? Không. Chưa có ai tạo ra AI hoàn hảo, ngay cả những công ty lớn nhất thế giới. Nhưng đối mặt với vấn đề vẫn tốt hơn nhiều so với việc lờ nó đi.
Bạn muốn ít ảo giác hơn? Hãy cho AI của bạn một phần tốt dữ liệu chất lượng cao.
Nếu nó gây ảo giác, có lẽ không phải AI cần được sửa chữa. Có lẽ là cách tiếp cận của bạn để tận dụng những khả năng mới mạnh mẽ này mà không dành thời gian và công sức để làm đúng.