Connect with us

Trí tuệ nhân tạo

Cuộc nổi dậy của mô hình nhỏ: Tại sao Trí tuệ nhân tạo nhỏ lại vượt trội so với mô hình ngôn ngữ khổng lồ

mm

Trong những năm gần đây, trí tuệ nhân tạo đã được định hình bởi cuộc đua xây dựng các mô hình ngày càng lớn hơn. Mỗi bản phát hành mới được đo lường bởi số lượng tham số, kích thước của dữ liệu đào tạo và quy mô của cơ sở hạ tầng đằng sau nó. Người ta cho rằng lớn hơn có nghĩa là tốt hơn. Trong khi các công ty công nghệ lớn tiếp tục xây dựng các mô hình ngôn ngữ khổng lồ với hàng trăm tỷ tham số, một cuộc cách mạng im lặng đang diễn ra. Các mô hình Trí tuệ nhân tạo nhỏ, thường nhỏ hơn hàng nghìn lần so với các mô hình khổng lồ của chúng, đang đạt được hiệu suất tương đương và đôi khi thậm chí vượt trội trên các nhiệm vụ cụ thể. Sự thay đổi này thách thức mọi thứ chúng ta từng nghĩ về việc mở rộng quy mô Trí tuệ nhân tạo và mở ra những khả năng mới cho Trí tuệ nhân tạo được dân chủ hóa, hiệu quả.

Câu chuyện David và Goliath của Trí tuệ nhân tạo hiện đại

Trong nhiều năm, ngành công nghiệp Trí tuệ nhân tạo đã hoạt động dưới giả định rằng các mô hình lớn hơn cung cấp hiệu suất tốt hơn. Loạt GPT của OpenAI đã tăng từ 117 triệu tham số lên hơn 175 tỷ. PaLM của Google đã đạt 540 tỷ tham số. Các công ty công nghệ lớn đã đầu tư hàng tỷ đô la vào việc đào tạo các mô hình này và đầu tư thêm để xây dựng các mô hình thậm chí còn lớn hơn. Trong tình huống này, khi số lượng tham số trở thành yếu tố chính để xác định khả năng của mô hình và việc xây dựng khả năng Trí tuệ nhân tạo trở thành một cuộc đua về tài nguyên tính toán và chi tiêu cơ sở hạ tầng, một hiện tượng thú vị bắt đầu xảy ra trong các phòng thí nghiệm nghiên cứu trên toàn thế giới.

Các kỹ sư bắt đầu phát hiện ra rằng các mô hình nhỏ, được thiết kế cẩn thận, có thể匹 với hoặc vượt trội hiệu suất của các mô hình khổng lồ trên các nhiệm vụ cụ thể. Loạt Phi của Microsoft đã chứng minh rằng một mô hình 2,7 tỷ tham số có thể cạnh tranh với các mô hình lớn gấp 10 lần. LLaMA của Meta đã chứng minh rằng các mô hình 7 tỷ tham số có thể mang lại kết quả đặc biệt khi được đào tạo đúng cách. Những phát triển này đại diện cho một sự thay đổi cơ bản trong hiểu biết của chúng ta về hiệu suất Trí tuệ nhân tạo.

Sự thay đổi này có ý nghĩa quan trọng về cách Trí tuệ nhân tạo được sử dụng và vận hành. Các mô hình nhỏ có thể chạy trên phần cứng tiêu dùng, xử lý yêu cầu nhanh hơn và tiêu thụ một phần nhỏ năng lượng cần thiết cho các mô hình lớn. Chúng làm cho Trí tuệ nhân tạo trở nên dễ tiếp cận hơn với các tổ chức không thể chi trả cho cơ sở hạ tầng tính toán khổng lồ. Điều quan trọng nhất là chúng thách thức các xu hướng độc quyền của việc phát triển Trí tuệ nhân tạo, nơi chỉ các công ty có nguồn lực khổng lồ mới có thể cạnh tranh.

Sự trỗi dậy của Kiến trúc Trí tuệ nhân tạo hiệu quả

Cuộc cách mạng mô hình nhỏ đang xây dựng trên các phương pháp kỹ thuật tinh vi nhằm tối đa hóa hiệu suất trong các ngân sách tham số bị giới hạn. Các mô hình này sử dụng các kỹ thuật tiên tiến như sự khuếch tán kiến thức, nơi các mô hình “học sinh” nhỏ hơn học từ các mô hình “giáo viên” lớn hơn, nắm bắt kiến thức thiết yếu trong khi giảm đáng kể yêu cầu tính toán.

Loạt Phi-4 của Microsoft thể hiện cách tiếp cận này. Mô hình Phi-4 lý luận với chỉ 14 tỷ tham số, cạnh tranh với các mô hình lớn gấp 5 lần trong lý luận toán học và giải quyết vấn đề logic. Tương tự, mô hình Gemma 3 270M của Google chứng minh rằng một mô hình nhỏ gọn 270 triệu tham số có thể mang lại khả năng theo dõi hướng dẫn mạnh mẽ và là nền tảng tuyệt vời cho việc tinh chỉnh.

Mô hình Llama 3.2 1B của Meta là một đột phá khác trong hiệu quả mô hình nhỏ. Thông qua việc cắt tỉa cấu trúc và sự khuếch tán kiến thức từ các mô hình Llama lớn hơn, nó duy trì hiệu suất đáng chú ý trong khi hoạt động hiệu quả trên các thiết bị cạnh. Các mô hình này chứng minh rằng sự đổi mới kiến trúc và phương pháp đào tạo quan trọng hơn số lượng tham số cho nhiều ứng dụng thực tế.

Kiến trúc hỗn hợp chuyên gia là một đột phá quan trọng trong thiết kế Trí tuệ nhân tạo hiệu quả. Thay vì sử dụng tất cả các tham số cho mọi nhiệm vụ, các mô hình này chỉ kích hoạt các thành phần chuyên môn liên quan. Họ định tuyến các truy vấn khác nhau đến các mạng con chuyên môn, duy trì khả năng rộng trong khi sử dụng ít tham số hoạt động tại bất kỳ thời điểm nào. Mô hình Mixtral 8x7B của Mistral AI chứng minh cách tiếp cận này một cách hiệu quả. Mặc dù có 47 tỷ tham số tổng cộng, nó chỉ kích hoạt 13 tỷ tham số cho mỗi truy vấn, đạt được hiệu suất tương đương với các mô hình lớn hơn trong khi duy trì tốc độ suy luận nhanh hơn.

Các kỹ thuật quantization cũng đã có tác động đáng kể đến việc tăng hiệu quả của các mô hình nhỏ. Bằng cách đại diện cho trọng số mô hình với ít bit hơn, các nhà nghiên cứu có thể thu nhỏ mô hình trong khi duy trì độ chính xác. Các phương pháp quantization hiện đại có thể giảm kích thước mô hình xuống 75% với tổn thất hiệu suất tối thiểu. Phi-3-mini của Microsoft đã chứng minh hiệu quả của cách tiếp cận này. Khi được quantized đến độ chính xác 4 bit, nó duy trì hơn 95% hiệu suất ban đầu trong khi giảm yêu cầu bộ nhớ từ 7GB xuống dưới 2GB, làm cho nó trở nên thực tế đặc biệt cho việc triển khai di động.

Chuyên môn hóa đánh bại Tổng quát hóa

Cuộc cách mạng mô hình nhỏ đã tiết lộ một sự thật quan trọng về việc triển khai Trí tuệ nhân tạo. Hầu hết các ứng dụng thực tế không cần một mô hình có thể viết thơ, giải toán và thảo luận triết học. Họ cần các mô hình vượt trội trong các nhiệm vụ cụ thể. Một bot trò chuyện dịch vụ khách hàng không cần biết Shakespeare. Một công cụ hoàn thành mã không cần kiến thức y tế. Sự nhận thức này đã chuyển sự tập trung từ việc xây dựng các mô hình phổ quát sang tạo ra các mô hình chuyên môn.

Đào tạo chuyên ngành cho phép các mô hình nhỏ tập trung khả năng hạn chế của chúng vào kiến thức liên quan. Một mô hình 3 tỷ tham số được đào tạo độc quyền trên tài liệu pháp lý có thể vượt trội một mô hình tổng quát 70 tỷ tham số trên các nhiệm vụ pháp lý. Mô hình chuyên môn học các mẫu sâu hơn trong lĩnh vực của nó thay vì phân tán khả năng trên hàng loạt chủ đề không liên quan. Nó giống như so sánh một bác sĩ chuyên khoa với một bác sĩ đa khoa cho các thủ tục phức tạp.

Các chiến lược tinh chỉnh đã trở nên tinh vi hơn. Thay vì đào tạo mô hình từ đầu, các nhà phát triển bắt đầu với các mô hình cơ sở nhỏ và thích nghi chúng với các nhu cầu cụ thể. Cách tiếp cận này yêu cầu tài nguyên tính toán tối thiểu trong khi tạo ra các mô hình chuyên môn có khả năng cao. Các tổ chức hiện có thể tạo ra các giải pháp Trí tuệ nhân tạo tùy chỉnh mà không cần đầu tư cơ sở hạ tầng khổng lồ.

Phá vỡ trần hiệu suất

Các điểm chuẩn gần đây tiết lộ những lợi thế hiệu suất đáng ngạc nhiên cho các mô hình nhỏ trong các lĩnh vực cụ thể. Mô hình Olmo 2 1B của AI2 vượt trội so với các mô hình cùng kích cỡ từ các công ty công nghệ lớn trong các nhiệm vụ hiểu ngôn ngữ tự nhiên. Phi-4-mini-flash-reasoning của Microsoft đạt được tốc độ cao hơn 10 lần với độ trễ thấp hơn 2-3 lần so với các mô hình lý luận truyền thống trong khi duy trì khả năng lý luận toán học.

Khoảng cách hiệu suất trở nên thậm chí còn ấn tượng hơn khi kiểm tra các ứng dụng cụ thể cho nhiệm vụ. Các mô hình nhỏ được tinh chỉnh cho các lĩnh vực chuyên môn nhất quán vượt trội so với các mô hình tổng quát lớn trong độ chính xác và liên quan. Các ứng dụng chăm sóc sức khỏe, phân tích tài liệu pháp lý và triển khai dịch vụ khách hàng cho thấy kết quả đặc biệt ấn tượng khi các mô hình nhỏ được đào tạo trên các tập dữ liệu chuyên ngành.

Lợi thế hiệu suất này đến từ các cách tiếp cận đào tạo tập trung. Thay vì học kiến thức rộng nhưng nông trên hàng loạt lĩnh vực, các mô hình nhỏ phát triển chuyên môn sâu trong các lĩnh vực được nhắm mục tiêu. Kết quả là các phản hồi đáng tin cậy, phù hợp với ngữ cảnh cho các trường hợp sử dụng cụ thể.

Lợi thế về tốc độ và hiệu quả

Hiệu suất không chỉ là về độ chính xác. Nó cũng là về tốc độ, chi phí và tác động môi trường. Các mô hình nhỏ vượt trội trong tất cả các chiều hướng này. Một mô hình nhỏ có thể tạo ra phản hồi trong vài mili giây nơi các mô hình lớn cần vài giây. Sự khác biệt về tốc độ này có thể看似 nhỏ, nhưng nó trở nên quan trọng trong các ứng dụng yêu cầu tương tác thời gian thực hoặc xử lý hàng triệu yêu cầu.

Tiêu thụ năng lượng là một khía cạnh quan trọng khác. Các mô hình lớn yêu cầu các trung tâm dữ liệu khổng lồ với hệ thống làm mát tinh vi. Mỗi truy vấn tiêu thụ một lượng điện đáng kể. Các mô hình nhỏ có thể chạy trên máy chủ tiêu chuẩn hoặc thậm chí máy tính cá nhân, sử dụng một phần nhỏ năng lượng. Khi các tổ chức phải đối mặt với áp lực giảm dấu chân carbon, lợi thế môi trường của các mô hình nhỏ trở nên quan trọng hơn.

Triển khai trên thiết bị cạnh là có lẽ khả năng chuyển đổi nhất của các mô hình nhỏ. Các mô hình này có thể chạy trực tiếp trên điện thoại, máy tính xách tay hoặc thiết bị IoT mà không cần kết nối internet. Hãy tưởng tượng các công cụ chẩn đoán y tế hoạt động trong các khu vực xa xôi mà không cần kết nối internet, hoặc các thiết bị dịch thuật thời gian thực không cần kết nối đám mây. Các mô hình nhỏ làm cho các kịch bản này trở nên khả thi, mang khả năng Trí tuệ nhân tạo đến hàng tỷ thiết bị trên toàn thế giới.

Các vấn đề về quyền riêng tư cũng ủng hộ các mô hình nhỏ. Khi Trí tuệ nhân tạo chạy cục bộ trên thiết bị của người dùng, dữ liệu nhạy cảm không bao giờ rời khỏi thiết bị. Các nhà cung cấp dịch vụ chăm sóc sức khỏe có thể phân tích dữ liệu bệnh nhân mà không cần tải nó lên máy chủ đám mây. Các tổ chức tài chính có thể xử lý giao dịch mà không tiết lộ thông tin khách hàng cho các hệ thống bên ngoài. Khả năng xử lý cục bộ này giải quyết một trong những mối quan ngại chính về việc áp dụng Trí tuệ nhân tạo trong các ngành nhạy cảm.

Kết luận

Sự trỗi dậy của các mô hình Trí tuệ nhân tạo nhỏ đang thách thức niềm tin rằng các mô hình lớn hơn luôn mang lại hiệu suất tốt hơn. Các mô hình nhỏ gọn với ít tham số hơn hiện đang匹 với hoặc thậm chí vượt trội các mô hình lớn hơn trong một số nhiệm vụ bằng cách sử dụng các kỹ thuật như sự khuếch tán kiến thức, quantization và chuyên môn hóa. Sự thay đổi này làm cho Trí tuệ nhân tạo trở nên dễ tiếp cận hơn bằng cách cho phép sử dụng nhanh hơn và tiết kiệm năng lượng hơn trên các thiết bị hàng ngày. Nó cũng giảm chi phí, giảm tác động môi trường và cải thiện quyền riêng tư bằng cách cho phép triển khai cục bộ. Bằng cách tập trung vào các mô hình hiệu quả, chuyên biệt cho nhiệm vụ thay vì các hệ thống tổng quát khổng lồ, Trí tuệ nhân tạo trở nên thực tế, tiết kiệm và hữu ích hơn cho cả tổ chức và cá nhân.

Tiến sĩ Tehseen Zia là Giáo sư Liên kết có thời hạn tại Đại học COMSATS Islamabad, nắm giữ bằng Tiến sĩ về Trí tuệ Nhân tạo từ Đại học Công nghệ Vienna, Áo. Chuyên về Trí tuệ Nhân tạo, Học máy, Khoa học Dữ liệu và Thị giác Máy tính, ông đã có những đóng góp đáng kể với các ấn phẩm trên các tạp chí khoa học uy tín. Tiến sĩ Tehseen cũng đã dẫn dắt các dự án công nghiệp khác nhau với tư cách là Điều tra viên Chính và từng là Tư vấn viên Trí tuệ Nhân tạo.