Connect with us

Trí tuệ nhân tạo tự học không còn là khoa học viễn tưởng

Trí tuệ nhân tạo

Trí tuệ nhân tạo tự học không còn là khoa học viễn tưởng

mm

Các khuôn khổ trí tuệ nhân tạo mới nổi đang hướng tới một bước nhảy vĩ đại: máy móc tự cải thiện, không cần sự hiểu biết của con người.

Trong nhiều năm, thậm chí các mô hình trí tuệ nhân tạo tiên tiến nhất vẫn là những động cơ thụ động, dự đoán phản hồi dựa trên dữ liệu đào tạo mà chúng không thể sửa đổi. Nhưng ngày nay, không phải là kích thước của mô hình định nghĩa chương mới của trí tuệ nhân tạo; mà là liệu mô hình có thể phát triển độc lập hay không.

Gần đây, các nhà nghiên cứu tại MIT đã giới thiệu một khuôn khổ trí tuệ nhân tạo mới gọi là Self-Adapting LLMs (SEAL). Phương pháp này cho phép các mô hình ngôn ngữ lớn (LLMs) tự cải thiện một cách tự chủ, cho phép trí tuệ nhân tạo chẩn đoán các hạn chế của nó và cập nhật vĩnh viễn các trọng số thần kinh của nó thông qua một vòng phản hồi nội bộ được cung cấp bởi học tăng cường. Thay vì yêu cầu các nhà nghiên cứu phát hiện lỗi, viết các提示 mới hoặc cung cấp thêm ví dụ, mô hình này tự chịu trách nhiệm về sự tiến hóa của nó.

“Các mô hình ngôn ngữ lớn (LLMs) mạnh mẽ nhưng tĩnh; chúng thiếu cơ chế để thích nghi với các trọng số của chúng đối với các nhiệm vụ, kiến thức hoặc ví dụ mới,” các nhà nghiên cứu tại MIT đã viết trong một bài đăng trên blog. “Các thí nghiệm về việc kết hợp kiến thức và tổng quát hóa ít-shot cho thấy SEAL là một bước tiến hứa hẹn hướng tới các mô hình ngôn ngữ có khả năng tự điều chỉnh theo hướng đáp ứng với dữ liệu mới.”

Trong các thử nghiệm ban đầu, vòng lặp tự chỉnh sửa này cho phép các mô hình chuyển từ thất bại hoàn toàn sang thành công trên các câu đố lý luận trừu tượng phức tạp, vượt trội so với thậm chí các mô hình lớn hơn như GPT-4.1 với tỷ lệ thành công 72,5%, trong khi các phương pháp truyền thống thất bại. Hơn nữa, SEAL được cho là giảm giám sát của con người xuống 85% trong khi tăng độ chính xác và khả năng thích nghi.

Sự trỗi dậy của các khuôn khổ trí tuệ nhân tạo tự học

SEAL là một phần của xu hướng rộng lớn hơn hướng tới trí tuệ nhân tạo tự chủ. Các nhà nghiên cứu tại Sakana AI, ví dụ, đã giới thiệu Darwin-Gödel Machine—một tác nhân trí tuệ nhân tạo viết lại mã của chính nó bằng cách sử dụng các chiến lược tiến hóa mở.

“Nó tạo ra các cải tiến tự học, chẳng hạn như một bước xác thực bản vá, xem tệp tốt hơn, các công cụ chỉnh sửa nâng cao, tạo và xếp hạng nhiều giải pháp để chọn giải pháp tốt nhất và thêm lịch sử về những gì đã được thử trước (và tại sao nó thất bại) khi thực hiện các thay đổi mới,” Sakana AI đã viết trong một bài đăng trên blog.

Tương tự, các tác nhân trí tuệ nhân tạo của Anthropic, được cung cấp bởi Claude 4, có thể tự chủ điều phối các quy trình làm việc trên các cơ sở mã và công cụ kinh doanh.

“Một hệ thống tự cấu hình lại dựa trên loại tài sản, môi trường và lịch sử của nó cho phép chuyển từ phản hồi phản ứng sang chiến lược phòng ngừa liên tục,” Christian Struve, Giám đốc điều hành và đồng sáng lập tại Fracttal, đã nói với tôi. “Điều quan trọng không phải là nhiều lớp hơn hoặc nhiều tham số hơn, mà là các hệ thống tự chủ và hữu ích hơn.”

Điều gì kết hợp các nỗ lực này là một niềm tin cốt lõi: trí tuệ nhân tạo không cần phải lớn hơn để trở nên thông minh hơn. Nó cần trở nên thích nghi hơn.

“Quy mô đã mang lại những lợi ích lớn, nhưng chúng tôi đang đạt đến giới hạn của những gì chỉ kích thước alone có thể đạt được. Các mô hình học tự thích nghi như SEAL cung cấp một bước tiếp theo hấp dẫn bằng cách cho phép các hệ thống phát triển và cải thiện theo thời gian,” Jorge Riera, người sáng lập và Giám đốc điều hành tại nền tảng tư vấn dữ liệu full-stack Dataco, đã nói với tôi. “Các mô hình tự tiến hóa cũng thay đổi các chỉ số tiến bộ từ các điểm chuẩn tĩnh sang các biện pháp về khả năng thích nghi, hiệu quả học tập và cải thiện an toàn lâu dài. Thay vì chỉ kiểm tra những gì một mô hình biết tại thời điểm triển khai, chúng tôi có thể đánh giá cách nó học, giữ và tiến hóa theo thời gian.”

Tác động đối với hệ sinh thái trí tuệ nhân tạo và cuộc đua toàn cầu hướng tới tự chủ

Mức độ tự chủ này cũng thay đổi kinh tế của việc triển khai trí tuệ nhân tạo. Hãy tưởng tượng các hệ thống phát hiện gian lận tự cập nhật để chống lại các mối đe dọa mới, hoặc các giảng viên trí tuệ nhân tạo thay đổi phong cách giảng dạy của họ dựa trên hành vi của học sinh. Trong lĩnh vực robot, các khuôn khổ tự thích nghi có thể dẫn đến các máy tự học các mẫu di chuyển mới mà không cần được lập trình lại.

Khắp Trung Đông, các quốc gia như UAE và Ả Rập Xê Út đang nhanh chóng xây dựng các mô hình cơ bản được thiết kế cho sự thích nghi. Falcon của UAEJais của G42 là các mô hình ngôn ngữ lớn mã nguồn mở được xây dựng với sự liên quan khu vực, trong khi ALLaM và Metabrain của Aramco Digital đang thúc đẩy vào lĩnh vực các tác nhân trí tuệ nhân tạo tự chủ cho các thành phố thông minh, chăm sóc sức khỏe và hậu cần.

Những nỗ lực này chưa tương đương với khả năng tự chỉnh sửa của SEAL, nhưng chúng phản ánh một quỹ đạo chung: từ các hệ thống trí tuệ nhân tạo thụ động đến các tác nhân chủ động, tiến hóa có thể điều hướng sự phức tạp với sự hướng dẫn của con người hạn chế. Và giống như SEAL, những sáng kiến này được hỗ trợ bởi các khuôn khổ quản trị mạnh mẽ, nhấn mạnh sự nhận thức ngày càng tăng rằng tự chủ trí tuệ nhân tạo phải được kết hợp với trách nhiệm.

“Đây là một bước đầu tiên hướng tới các hệ thống tự quản lý có thể sửa đổi logic của chúng mà không cần can thiệp liên tục,” Struve nói. “Tôi tin rằng trí tuệ nhân tạo không tái định nghĩa trí thông minh là gì, nhưng nó buộc chúng ta phải suy nghĩ lại mối quan hệ của chúng ta với nó. Điều quan trọng không phải là một mô hình tiến hóa, mà là nó làm như vậy theo hướng phù hợp với các mục tiêu mà chúng ta xác định là con người.”

Jeff Townes, Giám đốc công nghệ tại Gorilla Logic, cũng nhấn mạnh tầm quan trọng của việc quản trị theo kịp sự tiến hóa của trí tuệ nhân tạo: “Câu hỏi không phải là liệu trí tuệ nhân tạo có thể tiến hóa hay không – mà là liệu doanh nghiệp có thể tiến hóa cùng với nó hay không. Quản trị phải neo đậu mọi thích nghi trí tuệ nhân tạo vào các kết quả và KPI rõ ràng mà các nhà lãnh đạo có thể đo lường và tin cậy, để đổi mới tăng trưởng với sự tự tin thay vì rủi ro.”

Chúng ta đã sẵn sàng cho trí tuệ nhân tạo tự viết lại mã của mình?

Câu hỏi gây tranh cãi nhất mà SEAL đặt ra không phải là kỹ thuật – mà là nếu các mô hình có thể quyết định cách tự học, vai trò của chúng ta trong việc định hình giá trị, ưu tiên và hướng của chúng là gì?

Các chuyên gia cảnh báo rằng khi các hệ thống trí tuệ nhân tạo tự thích nghi đạt được tự chủ, sự thúc đẩy hướng tới tự cải thiện không được vượt quá việc thiết lập các rào cản đạo đức. “Tôi tin rằng tất cả các hệ thống trí tuệ nhân tạo phải kết hợp ít nhất ba nguyên tắc đạo đức cơ bản,” Jacob Evans, Giám đốc công nghệ tại Kryterion, nói.

“Thứ nhất, và điều này có thể không cần nói, nhưng các hệ thống trí tuệ nhân tạo cần xác định mình là trí tuệ nhân tạo. Thứ hai, các hệ thống trí tuệ nhân tạo phải tập trung vào con người, tăng cường và không thay thế phán quyết của con người. Và cuối cùng, nó phải nhận ra các hạn chế và không chắc chắn của mình, đồng thời từ chối cung cấp thông tin có thể tạo điều kiện cho việc gây hại nghiêm trọng. Nếu không có những biện pháp bảo vệ này, trí tuệ nhân tạo có thể trở thành một công cụ thao túng thay vì hỗ trợ đáng tin cậy.”

“Để cho phép các mô hình tự cải thiện trong sản xuất, chúng cần một vòng phản hồi động, không chỉ là đào tạo tĩnh. Một phương pháp mạnh mẽ là sử dụng ‘bản sao số’ hoặc một môi trường cát hộp tinh vi nơi trí tuệ nhân tạo có thể an toàn kiểm tra và xác thực các cải tiến tự tạo của chính nó trước khi chúng được triển khai cho người dùng,” Ganesh Vanama, Kỹ sư tầm nhìn máy tính tại Automotus, chia sẻ.

Về quản trị, Vanama thêm, “kiểm soát không thể thương lượng là ‘con người trong vòng lặp’ giám sát.” Ông nói rằng trong khi chúng ta muốn các mô hình thích nghi, “bạn phải có giám sát liên tục để phát hiện ‘trôi dạt phù hợp’ nơi mô hình đi chệch khỏi mục tiêu hoặc ràng buộc an toàn dự kiến. Hệ thống này phải cho phép một kiểm toán viên con người quyền phủ quyết hoặc quay lại ngay lập tức bất kỳ cập nhật tự chủ nào không vượt qua xét duyệt an toàn hoặc hiệu suất.”

Nhưng các chuyên gia khác tin rằng vẫn còn thời gian để phát triển những biện pháp bảo vệ này, lập luận rằng xây dựng một trí tuệ nhân tạo tự cải thiện, mạnh mẽ và tổng quát vẫn là một thách thức khổng lồ.

“Những mô hình như vậy vẫn thiếu khả năng tự viết lại mã của chúng một cách đáng tin cậy trong thời gian thực. Các thách thức chính vẫn còn, bao gồm ngăn chặn sự tăng cường lỗi, tránh quên lãng thảm khốc, đảm bảo sự ổn định trong quá trình cập nhật và duy trì tính minh bạch xung quanh các thay đổi nội bộ,” Riera nói. “Cho đến khi những vấn đề đó được giải quyết, sự thích nghi tự hướng vẫn là một biên giới chứ không phải là hiện thực.”

Các nhà nghiên cứu tại MIT xem SEAL là một sự tiến hóa cần thiết. Như một trong những nhà khoa học hàng đầu của MIT đã nói, khuôn khổ này hiện chỉ phản ánh việc học của con người gần hơn bất cứ điều gì đã đến trước.

“Những hệ thống này gợi ý về một sự thay đổi từ các mô hình tĩnh, một lần chụp sang các kiến trúc thích nghi có thể học từ kinh nghiệm, quản lý bộ nhớ và theo đuổi mục tiêu theo thời gian. Hướng đi rõ ràng: hướng tới trí tuệ mô-đun, nhận thức ngữ cảnh có thể điều chỉnh liên tục,” Riera nói với tôi. “Mặc dù vẫn đang trong giai đoạn thử nghiệm, cách tiếp cận này đánh dấu một bước tiến đáng kể hướng tới các hệ thống trí tuệ nhân tạo tự chủ và mạnh mẽ hơn.”

Liệu điều này có dẫn đến các hệ thống được cá nhân hóa hơn hay các hình thức đại lý máy mới hoàn toàn vẫn còn phải xem. Thời đại của trí tuệ nhân tạo tự học đã đến – và nó đang viết lại không chỉ mã của chính mình, mà còn viết lại các quy tắc về những gì máy móc có thể trở thành.

Victor Dey là một biên tập viên và nhà văn về công nghệ, người viết về A.I., crypto, khoa học dữ liệu, metaverse và an ninh mạng trong lĩnh vực doanh nghiệp. Ông tự hào có nửa thập kỷ kinh nghiệm trong lĩnh vực truyền thông và trí tuệ nhân tạo khi làm việc tại các cơ quan truyền thông nổi tiếng như VentureBeat, Metaverse Post, Observer và các cơ quan khác. Victor đã hướng dẫn các nhà sáng lập sinh viên tại các chương trình tăng tốc tại các trường đại học hàng đầu như Đại học Oxford và Đại học Nam California, và nắm giữ bằng Thạc sĩ về khoa học dữ liệu và phân tích.