Lãnh đạo tư tưởng
Nếu Trí Tuệ Nhân Tạo Của Bạn Đang ảo Tưởng, Đừng Blame Trí Tuệ Nhân Tạo

Những “ảo tưởng” của trí tuệ nhân tạo – những câu trả lời nghe có vẻ thuyết phục nhưng sai – thu hút nhiều sự chú ý của truyền thông, như trong bài viết gần đây của New York Times, Trí Tuệ Nhân Tạo Đang Trở Nên Powerful Hơn, Nhưng Những Ảo Tưởng Của Nó Đang Trở Nên Tồi Tệ Hơn. Những ảo tưởng là một nguy cơ thực sự khi bạn đang đối phó với một chatbot tiêu dùng. Trong bối cảnh ứng dụng kinh doanh của trí tuệ nhân tạo, nó là một mối quan tâm nghiêm trọng hơn. May mắn thay, với tư cách là một nhà lãnh đạo công nghệ kinh doanh, tôi có nhiều quyền kiểm soát hơn. Tôi có thể đảm bảo rằng tác nhân có đúng dữ liệu để sản xuất một câu trả lời có ý nghĩa.
Bởi vì đó là vấn đề thực sự. Trong kinh doanh, không có lý do để những ảo tưởng của trí tuệ nhân tạo. Dừng chỉ trích trí tuệ nhân tạo. Chỉ trích bản thân vì không sử dụng trí tuệ nhân tạo đúng cách.
Khi công cụ trí tuệ nhân tạo tạo ra ảo tưởng, chúng đang làm những gì chúng được thiết kế để làm – cung cấp câu trả lời tốt nhất có thể dựa trên dữ liệu có sẵn. Khi chúng tạo ra những thứ không dựa trên thực tế, nó là vì chúng thiếu dữ liệu liên quan, không thể tìm thấy nó, hoặc không hiểu câu hỏi. Vâng, những mô hình mới như o3 và o4-mini của OpenAI đang ảo tưởng nhiều hơn, hành động thậm chí còn “sáng tạo” hơn khi chúng không có một câu trả lời tốt cho câu hỏi được đặt ra. Vâng, những công cụ mạnh mẽ hơn có thể ảo tưởng nhiều hơn – nhưng chúng cũng có thể sản xuất ra những kết quả mạnh mẽ và có giá trị hơn nếu chúng ta thiết lập chúng cho thành công.
Nếu bạn không muốn trí tuệ nhân tạo của mình ảo tưởng, đừng để nó đói dữ liệu. Cung cấp cho trí tuệ nhân tạo những dữ liệu tốt nhất, liên quan nhất cho vấn đề bạn muốn nó giải quyết, và nó sẽ không bị cám dỗ để đi sai đường.
Ngay cả khi đó, khi làm việc với bất kỳ công cụ trí tuệ nhân tạo nào, tôi khuyên bạn nên giữ nguyên khả năng tư duy批判 của mình. Những kết quả mà các tác nhân trí tuệ nhân tạo cung cấp có thể là sản phẩm và thú vị, nhưng điểm mấu chốt là không để trí tuệ nhân tạo làm tất cả việc suy nghĩ cho bạn. Hãy tiếp tục đặt câu hỏi. Khi một tác nhân trí tuệ nhân tạo cung cấp một câu trả lời, hãy đặt câu hỏi về câu trả lời đó để đảm bảo nó có ý nghĩa và được hỗ trợ bởi dữ liệu. Nếu vậy, đó nên là một dấu hiệu khuyến khích cho thấy nó đáng để bạn dành thời gian để đặt câu hỏi tiếp theo.
Càng đặt câu hỏi, bạn sẽ càng có được những thông tin sâu sắc hơn.
Vì Sao Những Ảo Tưởng Xảy Ra
Không phải là một điều bí ẩn. Trí tuệ nhân tạo không cố gắng nói dối bạn. Mỗi mô hình ngôn ngữ lớn (LLM) của trí tuệ nhân tạo cơ bản là dự đoán từ hoặc số tiếp theo dựa trên xác suất.
Ở mức độ cao, những gì đang xảy ra ở đây là LLMs nối các câu và đoạn văn một từ tại một thời điểm, dự đoán từ tiếp theo nên xảy ra trong câu dựa trên tỷ tỷ ví dụ khác trong dữ liệu đào tạo của nó. Những tổ tiên của LLMs (ngoài Clippy) là các lời nhắc tự động hoàn thành cho tin nhắn văn bản và mã code, các công cụ dịch ngôn ngữ tự động, và các hệ thống ngôn ngữ xác suất khác. Với sức mạnh tính toán thô tăng lên, cộng với đào tạo trên các tập dữ liệu quy mô internet, những hệ thống này đã trở nên “thông minh” đủ để có thể tham gia vào một cuộc trò chuyện đầy đủ qua chat, như thế giới đã học được với sự giới thiệu của ChatGPT.
Những người phản đối trí tuệ nhân tạo thích chỉ ra rằng đây không phải là “trí tuệ” thực sự, chỉ là phần mềm có thể cô đọng và tái tạo trí tuệ con người đã được đưa vào nó. Hãy yêu cầu nó tóm tắt dữ liệu trong một báo cáo viết, và nó sẽ bắt chước cách các nhà văn khác đã tóm tắt dữ liệu tương tự.
Điều đó khiến tôi nghĩ rằng đó là một lập luận học thuật miễn là dữ liệu là chính xác và phân tích là hữu ích.
Điều gì xảy ra nếu trí tuệ nhân tạo không có dữ liệu? Nó sẽ lấp đầy khoảng trống. Đôi khi nó rất thú vị. Đôi khi nó là một mớ hỗn độn.
Khi xây dựng các tác nhân trí tuệ nhân tạo, đây là rủi ro gấp 10 lần. Các tác nhân được thiết kế để cung cấp thông tin hành động, nhưng chúng đưa ra nhiều quyết định hơn trên đường đi. Chúng thực hiện các nhiệm vụ đa bước, nơi kết quả của bước 1 thông báo cho các bước 2, 3, 4, 5, … 10 … 20. Nếu kết quả của bước 1 là không chính xác, lỗi sẽ được khuếch đại, khiến đầu ra ở bước 20 trở nên tồi tệ hơn. Đặc biệt, khi các tác nhân có thể đưa ra quyết định và bỏ qua các bước.
Được thực hiện đúng, các tác nhân đạt được nhiều hơn cho doanh nghiệp triển khai chúng. Tuy nhiên, với tư cách là các nhà quản lý sản phẩm trí tuệ nhân tạo, chúng ta phải nhận ra rủi ro lớn hơn đi cùng với phần thưởng lớn hơn.
Điều mà đội của chúng tôi đã làm. Chúng tôi đã nhìn thấy rủi ro và giải quyết nó. Chúng tôi không chỉ xây dựng một robot phức tạp; chúng tôi đảm bảo rằng nó chạy trên đúng dữ liệu. Dưới đây là những gì tôi nghĩ chúng tôi đã làm đúng:
- Xây dựng tác nhân để hỏi đúng câu hỏi và xác minh nó có đúng dữ liệu. Đảm bảo quá trình nhập dữ liệu ban đầu của tác nhân thực sự là xác định hơn, ít “sáng tạo” hơn. Bạn muốn tác nhân nói khi nó không có đúng dữ liệu và không tiếp tục đến bước tiếp theo, thay vì tạo ra dữ liệu.
- Cấu trúc một cuốn sách hướng dẫn cho tác nhân của bạn – đảm bảo nó không tạo ra một kế hoạch mới mỗi lần nhưng có một cách tiếp cận bán cấu trúc. Cấu trúc và ngữ cảnh cực kỳ quan trọng tại giai đoạn thu thập và phân tích dữ liệu. Bạn có thể để tác nhân nới lỏng và hành động “sáng tạo” hơn khi nó có các事 thực và sẵn sàng viết tóm tắt, nhưng trước tiên hãy lấy đúng事 thực.
- Xây dựng một công cụ chất lượng cao để trích xuất dữ liệu. Điều này nên là hơn một cuộc gọi API. Hãy dành thời gian để viết mã (người vẫn làm điều đó) tạo ra đúng số lượng và loại dữ liệu sẽ được thu thập, xây dựng các kiểm tra chất lượng vào quá trình.
- Làm cho tác nhân hiển thị công việc của nó. Tác nhân nên trích dẫn nguồn và liên kết đến nơi người dùng có thể xác minh dữ liệu, từ nguồn gốc, và khám phá nó thêm. Không được phép sử dụng mánh lới!
- Thanh chắn: Hãy suy nghĩ về những gì có thể đi sai, và xây dựng các biện pháp bảo vệ chống lại những lỗi mà bạn tuyệt đối không thể cho phép. Trong trường hợp của chúng tôi, điều đó có nghĩa là khi tác nhân được giao nhiệm vụ phân tích thị trường không có dữ liệu – theo nghĩa là dữ liệu của chúng tôi, không phải một nguồn dữ liệu ngẫu nhiên được kéo từ web – đảm bảo rằng nó không tạo ra một thứ gì đó là một rào cản thiết yếu. Tốt hơn cho tác nhân không thể trả lời thay vì cung cấp một câu trả lời sai hoặc gây hiểu lầm.
Chúng tôi đã kết hợp những nguyên tắc này vào bản phát hành gần đây của ba tác nhân mới của chúng tôi, với nhiều hơn sẽ theo sau. Ví dụ, Tác nhân Chuẩn bị Cuộc họp Trí tuệ Nhân tạo của chúng tôi cho các nhân viên bán hàng không chỉ hỏi tên của công ty mục tiêu mà còn chi tiết về mục tiêu của cuộc họp và ai là người tham gia, chuẩn bị cho nó cung cấp một câu trả lời tốt hơn. Nó không cần phải đoán vì nó sử dụng một lượng lớn dữ liệu công ty, dữ liệu kỹ thuật số và hồ sơ điều hành để thông báo cho các khuyến nghị của nó.
Các tác nhân của chúng tôi có hoàn hảo không? Không. Không ai đang tạo ra trí tuệ nhân tạo hoàn hảo, ngay cả những công ty lớn nhất trên thế giới. Nhưng việc đối mặt với vấn đề là một điều tốt hơn rất nhiều so với việc bỏ qua nó.
Muốn có ít ảo tưởng hơn? Hãy cung cấp cho trí tuệ nhân tạo của bạn một phần dữ liệu chất lượng cao dữ liệu chất lượng cao.
Nếu nó ảo tưởng, có thể đó không phải là trí tuệ nhân tạo cần được sửa chữa. Có thể đó là cách tiếp cận của bạn để tận dụng những khả năng mạnh mẽ mới này mà không dành thời gian và nỗ lực để làm cho chúng đúng.












