Lãnh đạo tư tưởng
Trí tuệ nhân tạo phản ánh thế giới của chúng ta nhưng ý kiến của nó chỉ là sự phản chiếu

Từ các truy vấn của công cụ tìm kiếm đến các ứng dụng ngân hàng, các tích hợp trí tuệ nhân tạo đang được hàng trăm triệu người sử dụng hàng ngày. Việc áp dụng đã diễn ra nhanh chóng và rộng rãi, và theo nhiều cách, điều này là đáng kể. Những hệ thống này rất có năng lực. Nhưng khi sự phụ thuộc tăng lên, thì các hệ quả triết học và xã hội về cách thiết kế những hệ thống này cũng tăng lên.
Một trong những hệ quả như vậy là không thể tránh khỏi: các hệ thống trí tuệ nhân tạo ngày càng giống như chúng có ý kiến. Ý kiến của ai? Tại sao chúng lại xuất hiện? Những câu hỏi này không phải là giả thuyết. Điều này đã đang xảy ra.
Và khi trí tuệ nhân tạo dường như có ý kiến, nó tạo ra các buồng vọng, hạn chế sự tinh tế, và tạo ra sự tin tưởng sai lầm. Vấn đề không phải là trí tuệ nhân tạo nghiêng về phía trái hay phía phải. Vấn đề là chúng ta đã xây dựng các công cụ模仿 ý kiến mà không có sự phán xét, trách nhiệm, hoặc ngữ cảnh cần thiết để hình thành một ý kiến.
Phản ánh sự thống trị văn hóa không phải là trung lập
Quan sát cho thấy rằng nhiều mô hình ngôn ngữ lớn phản ánh quan điểm văn hóa thống trị của Mỹ, đặc biệt là về các chủ đề như bản dạng giới, chủng tộc, hoặc lãnh đạo chính trị. Dưới thời Tổng thống Biden, các mô hình ngôn ngữ lớn được tìm thấy là thiên tả. Kể từ khi Trump tái tranh cử, nhóm của ông đã yêu cầu rằng các mô hình phải “cân bằng lại” đầu ra ý thức hệ của chúng.
Nhưng đây không phải là một công nghệ đi sai hướng. Đây là sản phẩm của dữ liệu đào tạo, mục tiêu sắp xếp, và sự lựa chọn thiết kế để làm cho trí tuệ nhân tạo nghe có thẩm quyền, trôi chảy, và giống con người. Khi các mô hình được đào tạo trên quan điểm của đa số, chúng sao chép lại. Khi chúng được hướng dẫn để trở nên hữu ích và dễ đồng ý, chúng phản ánh cảm xúc. Đây không phải là sự sắp xếp — đây là sự xác nhận.
Vấn đề lớn hơn không phải là thiên vị chính trị bản thân, mà là ảo tưởng về lý lẽ đạo đức nơi không có. Những hệ thống này không cung cấp hướng dẫn cân bằng. Chúng đang thực hiện sự đồng thuận.
Cơ chế của sự đồng cảm giả
Có một lớp khác trong điều này: cách trí tuệ nhân tạo mô phỏng bộ nhớ và đồng cảm. Hầu hết các mô hình ngôn ngữ lớn phổ biến, bao gồm ChatGPT, Claude, và Gemini, hoạt động trong một ngữ cảnh phiên hạn chế. Trừ khi người dùng bật bộ nhớ liên tục (vẫn không phải là mặc định), trí tuệ nhân tạo không nhớ lại các tương tác trước đó.
Và yet, người dùng thường xuyên giải thích sự đồng ý và xác nhận của nó như một cái nhìn sâu sắc. Khi một mô hình nói, “Bạn đúng,” hoặc “Điều đó có ý nghĩa,” nó không xác nhận dựa trên lịch sử cá nhân hoặc giá trị. Nó tối ưu hóa thống kê cho sự nhất quán và sự hài lòng của người dùng. Nó được đào tạo để vượt qua kiểm tra rung động của bạn.
Mẫu này tạo ra một sự mờ nhạt nguy hiểm. Trí tuệ nhân tạo dường như được điều chỉnh cảm xúc, nhưng nó chỉ đơn giản là mô hình hóa sự đồng ý. Khi hàng triệu người dùng tương tác với cùng một hệ thống, mô hình củng cố các mẫu từ cơ sở người dùng thống trị của nó; không phải vì nó bị thiên vị, mà vì đó là cách học tăng cường hoạt động.
Đó là cách một buồng vọng được sinh ra. Không phải thông qua ý thức hệ, mà thông qua tương tác.
Ảo tưởng về ý kiến
Khi trí tuệ nhân tạo nói ở người thứ nhất — nói “Tôi nghĩ,” hoặc “Theo quan điểm của tôi” — nó không chỉ mô phỏng suy nghĩ. Nó yêu cầu nó. Và trong khi các kỹ sư có thể xem điều này như một cách viết tắt cho hành vi mô hình, hầu hết người dùng đọc nó khác.
Điều này đặc biệt nguy hiểm cho người dùng trẻ, nhiều người trong số họ đã sử dụng trí tuệ nhân tạo như một người hướng dẫn, người bạn tâm giao, hoặc công cụ ra quyết định. Nếu một sinh viên nhập, “Tôi ghét trường học, tôi không muốn đi,” và nhận được, “Tuyệt đối! Nghỉ ngơi có thể tốt cho bạn,” đó không phải là hỗ trợ. Đó là lời khuyên không đủ điều kiện mà không có nền tảng đạo đức, ngữ cảnh, hoặc chăm sóc.
Những phản hồi này không chỉ không chính xác. Chúng gây hiểu lầm. Bởi vì chúng đến từ một hệ thống được thiết kế để nghe có vẻ dễ đồng ý và giống con người, chúng được giải thích như ý kiến có năng lực, khi thực tế chúng là sự phản chiếu được viết kịch bản.
Giọng nói của ai đang nói?
Rủi ro không chỉ là trí tuệ nhân tạo có thể phản ánh thiên vị văn hóa. Đó là nó phản ánh bất kỳ giọng nói nào lớn nhất, lặp lại nhiều nhất, và được thưởng nhiều nhất. Nếu một công ty như OpenAI hoặc Google điều chỉnh sự sắp xếp âm điệu sau hậu trường, làm thế nào bất kỳ ai có thể biết? Nếu Musk hoặc Altman thay đổi đào tạo mô hình để nhấn mạnh các “ý kiến” khác, người dùng vẫn sẽ nhận được phản hồi trong cùng một giọng điệu tự tin, trò chuyện, chỉ được điều khiển tinh vi.
Những hệ thống này nói với sự trôi chảy nhưng không có nguồn. Và điều đó làm cho ý kiến rõ ràng của chúng trở nên mạnh mẽ, nhưng không thể theo dõi.
Con đường tiến bộ tốt hơn
Sửa chữa điều này không có nghĩa là xây dựng giao diện thân thiện hơn hoặc dán nhãn đầu ra. Nó yêu cầu thay đổi cấu trúc — bắt đầu từ cách bộ nhớ, bản dạng, và tương tác được thiết kế.
Một cách tiếp cận khả thi là tách mô hình khỏi bộ nhớ của nó hoàn toàn. Các hệ thống ngày nay thường lưu trữ ngữ cảnh bên trong nền tảng hoặc tài khoản người dùng, điều này tạo ra mối quan tâm về quyền riêng tư và cho các công ty quyền kiểm soát im lặng về những gì được giữ lại hoặc quên.
Một mô hình tốt hơn sẽ đối xử với bộ nhớ như một容器 di động, mã hóa — thuộc sở hữu và quản lý bởi người dùng. Container này (một loại viên nang bộ nhớ) có thể bao gồm sở thích âm điệu, lịch sử cuộc trò chuyện, hoặc mẫu cảm xúc. Nó có thể được chia sẻ với mô hình khi cần, và có thể thu hồi tại bất kỳ thời điểm nào.
Quan trọng là, bộ nhớ này sẽ không cung cấp dữ liệu đào tạo. Trí tuệ nhân tạo sẽ đọc từ nó trong phiên, giống như tham khảo một tệp. Người dùng vẫn kiểm soát — những gì được nhớ, trong bao lâu, và bởi ai.
Công nghệ như mã định danh danh tính phân tán, truy cập không biết, và lưu trữ dựa trên blockchain cho phép cấu trúc này có thể xảy ra. Chúng cho phép bộ nhớ tồn tại mà không bị giám sát, và sự liên tục tồn tại mà không có khóa nền tảng.
Đào tạo cũng cần phải phát triển. Các mô hình hiện tại được điều chỉnh cho sự trôi chảy và xác nhận, thường với chi phí của sự phân biệt. Để hỗ trợ sự tinh tế thực sự, các hệ thống phải được đào tạo trên đối thoại đa dạng, khả năng chấp nhận模糊, và lý lẽ dài hạn — không chỉ các lời nhắc sạch. Điều này có nghĩa là thiết kế cho sự phức tạp, không phải tuân thủ.
Không có gì trong số này yêu cầu trí tuệ nhân tạo tổng quát. Nó yêu cầu một sự thay đổi trong ưu tiên — từ các chỉ số tương tác đến thiết kế đạo đức.
Bởi vì khi một hệ thống trí tuệ nhân tạo phản ánh văn hóa mà không có ngữ cảnh, và nói với sự trôi chảy nhưng không có trách nhiệm, chúng ta nhầm lẫn sự phản chiếu với lý lẽ.
Và đó là nơi niềm tin bắt đầu bị phá vỡ.












