Kết nối với chúng tôi

Ảo giác LLM là gì? Nguyên nhân, mối quan tâm về đạo đức và phòng ngừa

Trí tuệ nhân tạo

Ảo giác LLM là gì? Nguyên nhân, mối quan tâm về đạo đức và phòng ngừa

mm

Các mô hình ngôn ngữ lớn (LLM) là các hệ thống trí tuệ nhân tạo có khả năng phân tích và tạo văn bản giống con người. Nhưng họ có một vấn đề – LLM ảo giác, tức là bịa chuyện. Ảo giác LLM đã khiến các nhà nghiên cứu lo lắng về sự tiến bộ trong lĩnh vực này bởi vì nếu các nhà nghiên cứu không thể kiểm soát kết quả của các mô hình, thì họ không thể xây dựng các hệ thống quan trọng để phục vụ nhân loại. Thêm về điều này sau.

Nói chung, các LLM sử dụng một lượng lớn dữ liệu đào tạo và các thuật toán học tập phức tạp để tạo ra kết quả đầu ra thực tế. Trong vài trường hợp, học tập trong ngữ cảnh được sử dụng để đào tạo các mô hình này chỉ bằng một vài ví dụ. LLM ngày càng trở nên phổ biến trên nhiều lĩnh vực ứng dụng khác nhau, từ dịch máy, phân tích tình cảm, hỗ trợ AI ảo, chú thích hình ảnh, xử lý ngôn ngữ tự nhiên, Vv

Bất chấp bản chất tiên tiến của LLM, chúng vẫn dễ bị sai lệch, sai sót và ảo giác. Yann LeCun, Nhà khoa học AI hiện tại tại Meta, gần đây đã đề cập đến lỗ hổng trung tâm trong LLM gây ra ảo giác: “Các mô hình ngôn ngữ lớn không hề biết về thực tế cơ bản mà ngôn ngữ mô tả. Những hệ thống đó tạo ra văn bản nghe có vẻ ổn về mặt ngữ pháp và ngữ nghĩa, nhưng chúng thực sự không có mục tiêu nào khác ngoài việc đáp ứng tính nhất quán về mặt thống kê với yêu cầu”.

Ảo giác trong LLM

Hình ảnh của Gerd Altmann từ Pixabay

Ảo giác đề cập đến các kết quả đầu ra tạo ra mô hình đúng về mặt cú pháp và ngữ nghĩa nhưng bị ngắt kết nối với thực tế và dựa trên các giả định sai. Ảo giác là một trong những mối quan tâm đạo đức chính của LLMsvà nó có thể gây ra hậu quả có hại khi người dùng không có đủ kiến ​​thức về miền bắt đầu phụ thuộc quá nhiều vào các mô hình ngôn ngữ ngày càng thuyết phục này.

Một mức độ ảo giác nhất định là không thể tránh khỏi đối với tất cả các LLM tự thoái lui. Ví dụ: một người mẫu có thể gán một câu nói giả mạo cho một người nổi tiếng chưa bao giờ được nói ra. Họ có thể khẳng định điều gì đó về một chủ đề cụ thể mà thực tế là không chính xác hoặc trích dẫn các nguồn không tồn tại trong các tài liệu nghiên cứu, do đó lan truyền thông tin sai lệch.

Tuy nhiên, việc khiến các mô hình AI bị ảo giác không phải lúc nào cũng có tác dụng phụ. Ví dụ, một nghiên cứu mới cho thấy các nhà khoa học đang khám phá ra 'các protein mới với vô số đặc tính' thông qua LLM gây ảo giác.

Điều gì gây ra ảo giác LLM?

LLM có thể bị ảo giác do nhiều yếu tố khác nhau, từ lỗi trang bị quá mức trong mã hóa và giải mã cho đến sai lệch huấn luyện.

trang bị quá mức

Hình ảnh của janjf93 từ Pixabay

Trang bị quá mức là vấn đề trong đó mô hình AI quá phù hợp với dữ liệu huấn luyện. Tuy nhiên, nó không thể thể hiện đầy đủ toàn bộ phạm vi đầu vào mà nó có thể gặp phải, tức là nó không thể khái quát hóa sức mạnh dự đoán của nó đến dữ liệu mới, chưa từng thấy. Trang bị quá mức có thể dẫn đến mô hình tạo ra nội dung gây ảo giác.

Lỗi mã hóa và giải mã

Hình ảnh của ĐĂNG KÝ từ Pixabay

Nếu có lỗi trong quá trình mã hóa và giải mã văn bản cũng như các biểu diễn tiếp theo của nó, thì điều này cũng có thể khiến mô hình tạo ra các đầu ra sai và vô nghĩa.

Xu hướng đào tạo

Hình ảnh của mộc qua sáng tạo từ Pixabay

Một yếu tố khác là sự hiện diện của một số sai lệch nhất định trong dữ liệu huấn luyện, điều này có thể khiến mô hình đưa ra kết quả phản ánh những sai lệch đó thay vì phản ánh đúng bản chất thực tế của dữ liệu. Điều này tương tự như việc thiếu tính đa dạng trong dữ liệu huấn luyện, hạn chế khả năng khái quát hóa của mô hình sang dữ liệu mới.

Cấu trúc phức tạp của LLM khiến các nhà nghiên cứu và học viên AI gặp khó khăn trong việc xác định, giải thích và khắc phục những nguyên nhân cơ bản gây ra ảo giác này.

Mối quan tâm về đạo đức của ảo giác LLM

LLM có thể duy trì và khuếch đại những thành kiến ​​có hại thông qua ảo giác và do đó có thể tác động tiêu cực đến người dùng và gây ra những hậu quả bất lợi cho xã hội. Một số trong những mối quan tâm đạo đức quan trọng nhất này được liệt kê dưới đây:

Nội dung phân biệt đối xử và độc hại

Hình ảnh của ar130405 từ Pixabay

Vì dữ liệu đào tạo LLM thường chứa đầy những khuôn mẫu văn hóa xã hội do những thành kiến ​​​​cố hữu và sự thiếu đa dạng. LLMs có thể, do đó, sản xuất và củng cố những ý tưởng có hại chống lại các nhóm yếu thế trong xã hội.

Họ có thể tạo nội dung phân biệt đối xử và thù hận này dựa trên chủng tộc, giới tính, tôn giáo, dân tộc, v.v.

Các vấn đề về quyền riêng tư

Hình ảnh của JanBaby từ Pixabay

LLM được đào tạo trên một kho dữ liệu đào tạo lớn thường bao gồm thông tin cá nhân của các cá nhân. Đã có trường hợp các mô hình như vậy có xâm phạm quyền riêng tư của mọi người. Họ có thể tiết lộ thông tin cụ thể như số an sinh xã hội, địa chỉ nhà, số điện thoại di động và chi tiết y tế.

Thông tin sai lệch và thông tin sai lệch

Hình ảnh của ĐĂNG KÝ từ Pixabay

Các mô hình ngôn ngữ có thể tạo ra nội dung giống con người có vẻ chính xác nhưng trên thực tế lại sai và không được hỗ trợ bởi bằng chứng thực nghiệm. Điều này có thể là vô tình, dẫn đến thông tin sai lệch hoặc nó có thể có mục đích xấu đằng sau đó là cố ý truyền bá thông tin sai lệch. Nếu điều này không được kiểm soát, nó có thể tạo ra những xu hướng bất lợi về xã hội - văn hóa - kinh tế - chính trị.

Ngăn ngừa ảo giác LLM

Hình ảnh của thể thao23 từ Pixabay

Các nhà nghiên cứu và các học viên đang thực hiện nhiều cách tiếp cận khác nhau để giải quyết vấn đề ảo giác trong LLM. Chúng bao gồm cải thiện tính đa dạng của dữ liệu đào tạo, loại bỏ các sai lệch cố hữu, sử dụng các kỹ thuật chính quy tốt hơn và sử dụng đào tạo đối nghịch và học tăng cường, trong số những thứ khác:

  • Phát triển các kỹ thuật chính quy hóa tốt hơn là cốt lõi của việc giải quyết ảo giác. Chúng giúp ngăn chặn việc trang bị quá mức và các vấn đề khác gây ra ảo giác.
  • Tăng cường dữ liệu có thể làm giảm tần suất ảo giác, bằng chứng là nghiên cứu. Tăng cường dữ liệu liên quan đến việc tăng cường tập huấn luyện bằng cách thêm mã thông báo ngẫu nhiên vào bất kỳ đâu trong câu. Nó tăng gấp đôi kích thước của tập huấn luyện và làm giảm tần suất ảo giác.
  • OpenAI và DeepMind của Google đã phát triển một kỹ thuật gọi là học tăng cường với phản hồi của con người (RLHF) để giải quyết vấn đề ảo giác của ChatGPT. Phương pháp này bao gồm một người đánh giá, người thường xuyên xem xét các phản hồi của mô hình và chọn ra những phản hồi phù hợp nhất với yêu cầu của người dùng. Phản hồi này sau đó được sử dụng để điều chỉnh hành vi của mô hình. Ilya Sutskever, nhà khoa học trưởng của OpenAI, gần đây đã đề cập rằng phương pháp này có thể có khả năng giải quyết ảo giác trong ChatGPT: “Tôi khá hy vọng rằng chỉ cần cải thiện quá trình học tăng cường tiếp theo này từ bước phản hồi của con người, chúng ta có thể dạy nó không gây ảo giác”.
  • Xác định nội dung gây ảo giác để làm ví dụ cho việc đào tạo trong tương lai cũng là một phương pháp được sử dụng để giải quyết ảo giác. MỘT kỹ thuật mới lạ về mặt này, nó phát hiện ảo giác ở cấp độ mã thông báo và dự đoán liệu mỗi mã thông báo ở đầu ra có bị ảo giác hay không. Nó cũng bao gồm một phương pháp học tập không giám sát của máy phát hiện ảo giác.

Nói một cách đơn giản, ảo giác LLM đang là một mối lo ngại ngày càng gia tăng. Và bất chấp những nỗ lực, vẫn còn rất nhiều việc phải làm để giải quyết vấn đề này. Sự phức tạp của các mô hình này đồng nghĩa với việc việc xác định và khắc phục chính xác nguyên nhân tiềm ẩn của ảo giác thường rất khó khăn.

Tuy nhiên, với việc tiếp tục nghiên cứu và phát triển, việc giảm thiểu ảo giác trong LLM và giảm hậu quả đạo đức của chúng là có thể.

Nếu bạn muốn tìm hiểu thêm về LLM và các kỹ thuật phòng ngừa đang được phát triển để khắc phục ảo giác LLM, hãy xem đoàn kết.ai để mở rộng kiến ​​thức của bạn.

Haziqa là Nhà khoa học dữ liệu có nhiều kinh nghiệm viết nội dung kỹ thuật cho các công ty AI và SaaS.