Kết nối với chúng tôi

RAG có phải là giải pháp cho ảo giác AI không?

Lãnh đạo tư tưởng

RAG có phải là giải pháp cho ảo giác AI không?

mm

AI, theo thiết kế, có “tư duy riêng”. Một nhược điểm của điều này là các mô hình Generative AI đôi khi sẽ bịa đặt thông tin trong một hiện tượng gọi là “Ảo giác AI”, một trong những ví dụ sớm nhất về hiện tượng này được chú ý khi một thẩm phán ở New York khiển trách luật sư vì đã sử dụng bản tóm tắt pháp lý do ChatGPT viết đề cập đến các vụ án không tồn tại. Gần đây hơn, đã xảy ra sự cố các công cụ tìm kiếm do AI tạo ra yêu cầu người dùng tiêu thụ đá vì lợi ích sức khỏe hoặc sử dụng không độc hại keo để giúp phô mai dính vào bánh pizza.

Khi GenAI ngày càng trở nên phổ biến, điều quan trọng là những người áp dụng phải nhận ra rằng ảo giác hiện nay là một chắc chắn xảy ra khía cạnh của các giải pháp GenAI. Được xây dựng trên các mô hình ngôn ngữ lớn (LLM), các giải pháp này thường được cung cấp thông tin từ một lượng lớn các nguồn khác nhau có khả năng chứa ít nhất một số thông tin không chính xác hoặc lỗi thời – những câu trả lời bịa đặt này tạo nên giữa 3% và 10% về các phản hồi do chatbot AI tạo ra cho lời nhắc của người dùng. Dưới ánh sáng của AI “hộp đen“tự nhiên – nơi mà với tư cách là con người, chúng ta gặp khó khăn đặc biệt trong việc kiểm tra chính xác cách AI tạo ra kết quả của nó – những ảo giác này gần như không thể được các nhà phát triển theo dõi và hiểu được.

Dù không thể tránh khỏi hay không, ảo giác về AI tốt nhất là gây khó chịu, nguy hiểm và tệ nhất là phi đạo đức.

Trên nhiều lĩnh vực, bao gồm chăm sóc sức khỏe, tài chính và an toàn công cộng, sự phân nhánh của ảo giác bao gồm mọi thứ từ truyền bá thông tin sai lệch và xâm phạm dữ liệu nhạy cảm cho đến những rủi ro thậm chí đe dọa đến tính mạng. Nếu ảo giác tiếp tục không được kiểm soát, sức khỏe của người dùng và niềm tin của xã hội vào hệ thống AI sẽ bị tổn hại.

Do đó, những người quản lý công nghệ mạnh mẽ này bắt buộc phải nhận ra và giải quyết các rủi ro do ảo giác AI để đảm bảo độ tin cậy của các kết quả đầu ra do LLM tạo ra.

RAG là điểm khởi đầu để giải quyết ảo giác

Một phương pháp nổi bật trong việc giảm thiểu ảo giác là thế hệ tăng cường truy xuấthoặc RAG. Giải pháp này nâng cao độ tin cậy của LLM thông qua việc tích hợp các kho thông tin bên ngoài – trích xuất thông tin liên quan từ cơ sở dữ liệu đáng tin cậy được chọn theo tính chất của truy vấn – để đảm bảo phản hồi đáng tin cậy hơn cho các truy vấn cụ thể.

Một số ngành các chuyên gia đã khẳng định rằng chỉ riêng RAG mới có thể giải quyết được ảo giác. Tuy nhiên, cơ sở dữ liệu tích hợp RAG vẫn có thể bao gồm dữ liệu lỗi thời, có thể tạo ra thông tin sai lệch hoặc gây hiểu lầm. Trong một số trường hợp nhất định, việc tích hợp dữ liệu bên ngoài thông qua RAG thậm chí có thể làm tăng khả năng xảy ra ảo giác trong các mô hình ngôn ngữ lớn: Nếu mô hình AI phụ thuộc một cách không tương xứng vào cơ sở dữ liệu lỗi thời thì nó sẽ nhận thức vì được cập nhật đầy đủ nên mức độ ảo giác có thể trở nên nghiêm trọng hơn.

Lan can AI – Thu hẹp khoảng cách của RAG

Như bạn có thể thấy, RAG hứa hẹn sẽ giảm thiểu ảo giác AI. Tuy nhiên, các ngành và doanh nghiệp chuyển sang sử dụng các giải pháp này cũng phải hiểu rõ những hạn chế cố hữu của chúng. Thật vậy, khi được sử dụng song song với RAG, sẽ có những phương pháp bổ sung nên được sử dụng khi giải quyết ảo giác LLM.

Ví dụ: doanh nghiệp có thể sử dụng AI thời gian thực bảo vệ để đảm bảo phản hồi LLM và giảm thiểu ảo giác AI. Guardrails hoạt động như một mạng lưới kiểm tra tất cả các kết quả đầu ra LLM đối với nội dung bịa đặt, tục tĩu hoặc lạc đề trước khi nó đến tay người dùng. Cách tiếp cận phần mềm trung gian chủ động này đảm bảo độ tin cậy và mức độ phù hợp của việc truy xuất trong hệ thống RAG, cuối cùng là nâng cao niềm tin của người dùng và đảm bảo các tương tác an toàn phù hợp với thương hiệu của công ty.

Ngoài ra, có cách tiếp cận “kỹ thuật nhắc nhở”, yêu cầu kỹ sư thay đổi lời nhắc chính phụ trợ. Bằng cách thêm các ràng buộc được xác định trước vào các lời nhắc có thể chấp nhận được - nói cách khác, việc giám sát không chỉ nơi LLM nhận thông tin mà còn cả cách người dùng yêu cầu LLM đưa ra câu trả lời - các lời nhắc được thiết kế có thể hướng LLM đến các kết quả đáng tin cậy hơn. Nhược điểm chính của phương pháp này là loại kỹ thuật nhanh chóng này có thể là một nhiệm vụ cực kỳ tốn thời gian đối với các lập trình viên, những người thường bị căng thẳng về thời gian và nguồn lực.

Cách tiếp cận “tinh chỉnh” bao gồm việc đào tạo LLM trên các bộ dữ liệu chuyên biệt để tinh chỉnh hiệu suất và giảm thiểu nguy cơ ảo giác. Phương pháp này đào tạo các LLM chuyên biệt về nhiệm vụ để lấy từ các miền cụ thể, đáng tin cậy, cải thiện độ chính xác và độ tin cậy trong đầu ra.

Điều quan trọng nữa là phải xem xét tác động của độ dài đầu vào đến hiệu suất lý luận của LLM - thực sự, nhiều người dùng có xu hướng nghĩ rằng lời nhắc của họ càng mở rộng và chứa đầy tham số thì kết quả đầu ra sẽ càng chính xác. Tuy nhiên, một nghiên cứu gần đây tiết lộ rằng độ chính xác của đầu ra LLM thực sự giảm khi chiều dài đầu vào tăng lên. Do đó, việc tăng số lượng hướng dẫn được chỉ định cho bất kỳ lời nhắc cụ thể nào không đảm bảo độ tin cậy nhất quán trong việc tạo ra các ứng dụng AI tổng hợp đáng tin cậy.

Hiện tượng này, được gọi là quá tải lời nhắc, nêu bật những rủi ro cố hữu của các thiết kế lời nhắc quá phức tạp – lời nhắc được diễn đạt càng rộng thì càng có nhiều cánh cửa dẫn đến thông tin không chính xác và ảo giác khi LLM cố gắng đáp ứng mọi thông số.

Kỹ thuật nhanh chóng yêu cầu cập nhật và tinh chỉnh liên tục, đồng thời vẫn nỗ lực ngăn chặn ảo giác hoặc phản ứng vô nghĩa một cách hiệu quả. Mặt khác, các lan can sẽ không tạo thêm rủi ro về kết quả đầu ra giả mạo, khiến chúng trở thành một lựa chọn hấp dẫn để bảo vệ AI. Không giống như kỹ thuật nhanh chóng, các lan can cung cấp giải pháp thời gian thực toàn diện để đảm bảo AI tổng hợp sẽ chỉ tạo ra kết quả đầu ra trong các ranh giới được xác định trước.

Mặc dù bản thân nó không phải là một giải pháp nhưng phản hồi của người dùng cũng có thể giúp giảm thiểu ảo giác bằng các hành động như tán thành và phản đối, giúp tinh chỉnh mô hình, nâng cao độ chính xác đầu ra và giảm nguy cơ ảo giác.

Riêng các giải pháp RAG đòi hỏi phải thử nghiệm rộng rãi để đạt được kết quả chính xác. Nhưng khi kết hợp với tinh chỉnh, kỹ thuật nhanh chóng và lan can, chúng có thể đưa ra các giải pháp có mục tiêu và hiệu quả hơn để giải quyết ảo giác. Việc khám phá các chiến lược bổ sung này sẽ tiếp tục cải thiện việc giảm thiểu ảo giác trong LLM, hỗ trợ phát triển các mô hình đáng tin cậy và đáng tin cậy hơn trên nhiều ứng dụng khác nhau.

RAG không phải là giải pháp cho ảo giác AI

Các giải pháp RAG tăng thêm giá trị to lớn cho LLM bằng cách làm phong phú thêm kiến ​​thức bên ngoài cho chúng. Nhưng vẫn còn rất nhiều điều chưa biết về AI, ảo giác vẫn là một thách thức cố hữu. Chìa khóa để chống lại chúng không nằm ở việc cố gắng loại bỏ chúng mà là giảm bớt ảnh hưởng của chúng bằng sự kết hợp của các biện pháp bảo vệ chiến lược, quy trình kiểm tra và các lời nhắc được điều chỉnh.

Chúng ta càng tin tưởng những gì GenAI nói với chúng ta thì chúng ta càng có thể tận dụng tiềm năng mạnh mẽ của nó một cách hiệu quả và hiệu quả hơn.

Liran Hason là Đồng sáng lập và Giám đốc điều hành của Aporia, Nền tảng điều khiển AI hàng đầu, được các công ty Fortune 500 và các nhà lãnh đạo ngành trên toàn thế giới tin tưởng để đảm bảo niềm tin vào GenAI. Aporia cũng được Diễn đàn Kinh tế Thế giới công nhận là Nhà tiên phong Công nghệ. Trước khi thành lập Aporia, Liran là Kiến trúc sư ML tại Adallom (được Microsoft mua lại) và sau đó là nhà đầu tư tại Vertex Ventures. Liran thành lập Aporia sau khi tận mắt chứng kiến ​​tác động của AI mà không cần rào cản. Năm 2022, Forbes vinh danh Aporia là “Công ty tỷ đô tiếp theo”