Trí tuệ nhân tạo
Mọi Điều Bạn Cần Biết Về Llama 3 | Mô hình nguồn mở mạnh mẽ nhất | Khái niệm sử dụng
Meta đã phát hành gần đây lạc đà không bướu 3, thế hệ tiếp theo của mô hình ngôn ngữ lớn nguồn mở (LLM) tiên tiến nhất. Dựa trên nền tảng do người tiền nhiệm đặt ra, Llama 3 nhằm mục đích nâng cao các khả năng đã giúp Llama 2 trở thành đối thủ cạnh tranh nguồn mở đáng kể với ChatGPT, như đã nêu trong phần đánh giá toàn diện trong bài viết Llama 2: Đi sâu vào thách thức mã nguồn mở đối với ChatGPT.
Trong bài viết này, chúng tôi sẽ thảo luận về các khái niệm cốt lõi đằng sau Llama 3, khám phá quy trình đào tạo và kiến trúc đổi mới của nó, đồng thời cung cấp hướng dẫn thực tế về cách truy cập, sử dụng và triển khai mô hình đột phá này một cách có trách nhiệm. Cho dù bạn là nhà nghiên cứu, nhà phát triển hay người đam mê AI, bài đăng này sẽ trang bị cho bạn kiến thức và tài nguyên cần thiết để khai thác sức mạnh của Llama 3 cho các dự án và ứng dụng của bạn.
Sự tiến hóa của Llama: Từ Llama 2 đến Llama 3
Giám đốc điều hành của Meta, Mark Zuckerberg, công bố sự ra mắt của Llama 3, mô hình AI mới nhất được phát triển bởi Meta AI. Mô hình tiên tiến này, hiện có nguồn mở, được thiết lập để nâng cao các sản phẩm khác nhau của Meta, bao gồm Messenger và Instagram. Zuckerberg nhấn mạnh rằng Llama 3 coi Meta AI là tiên tiến nhất trợ lý AI có sẵn miễn phí.
Trước khi nói về các chi tiết cụ thể của Llama 3, chúng ta hãy xem lại phiên bản tiền nhiệm của nó, Llama 2. Được giới thiệu vào năm 2022, Llama 2 là một cột mốc quan trọng trong bối cảnh LLM nguồn mở, cung cấp một mô hình mạnh mẽ và hiệu quả có thể chạy trên phần cứng tiêu dùng .
Tuy nhiên, tuy Llama 2 là một thành tựu đáng chú ý nhưng nó cũng có những hạn chế. Người dùng đã báo cáo các vấn đề về từ chối sai (mô hình từ chối trả lời những lời nhắc nhẹ nhàng), tính hữu ích hạn chế và cần cải thiện trong các lĩnh vực như lý luận và tạo mã.
Nhập Llama 3: Phản ứng của Meta trước những thách thức này và phản hồi của cộng đồng. Với Llama 3, Meta đã đặt mục tiêu xây dựng các mô hình nguồn mở tốt nhất ngang bằng với các mô hình độc quyền hàng đầu hiện nay, đồng thời ưu tiên các phương pháp triển khai và phát triển có trách nhiệm.
Llama 3: Kiến trúc và đào tạo
Một trong những cải tiến quan trọng trong Llama 3 là mã thông báo của nó, có vốn từ vựng được mở rộng đáng kể về 128,256 mã thông báo (tăng từ 32,000 ở Llama 2). Vốn từ vựng lớn hơn này cho phép mã hóa văn bản hiệu quả hơn, cả cho đầu vào và đầu ra, có khả năng dẫn đến khả năng đa ngôn ngữ mạnh mẽ hơn và cải thiện hiệu suất tổng thể.
Llama 3 cũng kết hợp Chú ý truy vấn được nhóm (GQA), một kỹ thuật biểu diễn hiệu quả giúp nâng cao khả năng mở rộng và giúp mô hình xử lý các bối cảnh dài hơn một cách hiệu quả hơn. Các 8B phiên bản Llama 3 sử dụng GQA, trong khi cả hai 8B và 70B mô hình có thể xử lý trình tự lên đến 8,192 mã thông báo.
Dữ liệu đào tạo và chia tỷ lệ
Dữ liệu huấn luyện được sử dụng cho Llama 3 là yếu tố quan trọng giúp cải thiện hiệu suất của nó. Meta đã quản lý một bộ dữ liệu khổng lồ gồm hơn 15 nghìn tỷ mã thông báo từ các nguồn trực tuyến có sẵn công khai, lớn hơn bảy lần so với tập dữ liệu được sử dụng cho Llama 2. Tập dữ liệu này cũng bao gồm một phần đáng kể (trên 5%) dữ liệu không phải tiếng Anh chất lượng cao, bao gồm hơn 30 ngôn ngữ, để chuẩn bị cho các ứng dụng đa ngôn ngữ trong tương lai.
Để đảm bảo chất lượng dữ liệu, Meta đã sử dụng các kỹ thuật lọc nâng cao, bao gồm bộ lọc phỏng đoán, bộ lọc NSFW, loại bỏ trùng lặp ngữ nghĩa và bộ phân loại văn bản được đào tạo trên Llama 2 để dự đoán chất lượng dữ liệu. Nhóm cũng đã tiến hành các thử nghiệm sâu rộng để xác định cách kết hợp tối ưu các nguồn dữ liệu cho quá trình đào tạo trước, đảm bảo rằng Llama 3 hoạt động tốt trong nhiều trường hợp sử dụng, bao gồm kiến thức tầm thường, STEM, mã hóa và kiến thức lịch sử.
Mở rộng quy mô đào tạo trước là một khía cạnh quan trọng khác trong quá trình phát triển của Llama 3. Meta đã phát triển các luật mở rộng quy mô cho phép họ dự đoán hiệu suất của các mô hình lớn nhất trong các nhiệm vụ chính, chẳng hạn như tạo mã, trước khi thực sự đào tạo chúng. Điều này cung cấp thông tin cho các quyết định về kết hợp dữ liệu và phân bổ điện toán, cuối cùng dẫn đến hoạt động đào tạo hiệu quả và hiệu quả hơn.
Các mô hình lớn nhất của Llama 3 đã được đào tạo trên hai cụm GPU 24,000 được xây dựng tùy chỉnh, tận dụng sự kết hợp giữa kỹ thuật song song hóa dữ liệu, song song hóa mô hình và kỹ thuật song song hóa đường ống. Hệ thống đào tạo nâng cao của Meta tự động phát hiện, xử lý và bảo trì lỗi, tối đa hóa thời gian hoạt động của GPU và tăng hiệu quả đào tạo lên khoảng ba lần so với Llama 2.
Hướng dẫn Tinh chỉnh và Hiệu suất
Để khai thác toàn bộ tiềm năng của Llama 3 cho các ứng dụng trò chuyện và đối thoại, Meta đã đổi mới phương pháp tinh chỉnh hướng dẫn của mình. Phương pháp của nó kết hợp tinh chỉnh có giám sát (SFT), lấy mẫu từ chối, tối ưu hóa chính sách gần nhất (PPO) và tối ưu hóa ưu tiên trực tiếp (DPO).
Chất lượng của lời nhắc được sử dụng trong SFT và thứ hạng ưu tiên được sử dụng trong PPO và DPO đóng một vai trò quan trọng trong hiệu suất của các mô hình được căn chỉnh. Nhóm của Meta đã tuyển chọn cẩn thận dữ liệu này và thực hiện nhiều vòng đảm bảo chất lượng trên các chú thích do con người chú thích cung cấp.
Việc đào tạo về xếp hạng ưu tiên thông qua PPO và DPO cũng cải thiện đáng kể hiệu suất của Llama 3 trong các nhiệm vụ lập luận và mã hóa. Meta nhận thấy rằng ngay cả khi một mô hình gặp khó khăn trong việc trả lời trực tiếp một câu hỏi lý luận, nó vẫn có thể tạo ra dấu vết lý luận chính xác. Việc đào tạo về xếp hạng ưu tiên cho phép mô hình học cách chọn câu trả lời đúng từ những dấu vết này.
Kết quả đã nói lên điều đó: Llama 3 vượt trội hơn nhiều mô hình trò chuyện nguồn mở có sẵn theo các tiêu chuẩn chung của ngành, thiết lập hiệu suất tiên tiến mới cho LLM ở thang tham số 8B và 70B.
Những cân nhắc về an toàn và phát triển có trách nhiệm
Trong khi theo đuổi hiệu suất tiên tiến, Meta cũng ưu tiên các phương pháp triển khai và phát triển có trách nhiệm cho Llama 3. Công ty đã áp dụng cách tiếp cận cấp hệ thống, hình dung các mô hình Llama 3 như một phần của hệ sinh thái rộng lớn hơn đặt các nhà phát triển vào vị trí điều khiển, cho phép họ thiết kế và tùy chỉnh các mô hình cho các trường hợp sử dụng cụ thể và yêu cầu an toàn của chúng.
Meta đã tiến hành các cuộc diễn tập mở rộng về đội đỏ, thực hiện đánh giá đối nghịch và triển khai các kỹ thuật giảm thiểu an toàn để giảm thiểu rủi ro còn sót lại trong các mô hình được điều chỉnh theo hướng dẫn của mình. Tuy nhiên, công ty thừa nhận rằng những rủi ro còn sót lại có thể sẽ vẫn còn và khuyến nghị các nhà phát triển đánh giá những rủi ro này trong bối cảnh các trường hợp sử dụng cụ thể của họ.
Để hỗ trợ việc triển khai có trách nhiệm, Meta đã cập nhật Hướng dẫn sử dụng có trách nhiệm, cung cấp tài nguyên toàn diện cho các nhà phát triển để triển khai các biện pháp thực hành tốt nhất về an toàn ở cấp độ hệ thống và mô hình cho các ứng dụng của họ. Hướng dẫn bao gồm các chủ đề như kiểm duyệt nội dung, đánh giá rủi ro và sử dụng các công cụ an toàn như Llama Guard 2 và Code Shield.
Llama Guard 2, được xây dựng dựa trên phân loại MLCommons, được thiết kế để phân loại đầu vào (lời nhắc) và phản hồi LLM, phát hiện nội dung có thể được coi là không an toàn hoặc có hại. CyberSecEval 2 mở rộng so với phiên bản tiền nhiệm bằng cách bổ sung các biện pháp nhằm ngăn chặn việc lạm dụng trình thông dịch mã của mô hình, khả năng tấn công an ninh mạng và khả năng dễ bị tấn công tiêm nhiễm ngay lập tức.
Code Shield, phần giới thiệu mới của Llama 3, bổ sung tính năng lọc theo thời gian suy luận của mã không an toàn do LLM tạo ra, giảm thiểu rủi ro liên quan đến đề xuất mã không an toàn, lạm dụng trình thông dịch mã và thực thi lệnh an toàn.
Truy cập và sử dụng Llama 3
Sau khi ra mắt Llama 3 của Meta AI, một số công cụ nguồn mở đã được cung cấp để triển khai cục bộ trên nhiều hệ điều hành khác nhau, bao gồm Mac, Windows và Linux. Phần này nêu chi tiết ba công cụ đáng chú ý: Ollama, Open WebUI và LM Studio, mỗi công cụ cung cấp các tính năng độc đáo để tận dụng khả năng của Llama 3 trên thiết bị cá nhân.
Ollama: Có sẵn cho Mac, Linux và Windows, Ollama đơn giản hóa hoạt động của Llama 3 và các mô hình ngôn ngữ lớn khác trên máy tính cá nhân, ngay cả những máy có phần cứng kém mạnh mẽ hơn. Nó bao gồm một trình quản lý gói để quản lý mô hình dễ dàng và hỗ trợ các lệnh trên các nền tảng để tải xuống và chạy các mô hình.
Mở WebUI bằng Docker: Công cụ này cung cấp giao diện thân thiện với người dùng, phu bến tàuGiao diện dựa trên tương thích với Mac, Linux và Windows. Nó tích hợp hoàn hảo với các mô hình từ sổ đăng ký Ollama, cho phép người dùng triển khai và tương tác với các mô hình như Llama 3 trong giao diện web cục bộ.
Studio LM: Nhắm mục tiêu người dùng trên Mac, Linux và Windows, Studio LM hỗ trợ nhiều mô hình và được xây dựng trên dự án llama.cpp. Nó cung cấp giao diện trò chuyện và tạo điều kiện tương tác trực tiếp với nhiều mô hình khác nhau, bao gồm cả mô hình Hướng dẫn Llama 3 8B.
Những công cụ này đảm bảo rằng người dùng có thể sử dụng Llama 3 một cách hiệu quả trên thiết bị cá nhân của họ, đáp ứng nhiều yêu cầu và kỹ năng kỹ thuật. Mỗi nền tảng cung cấp các quy trình từng bước để thiết lập và tương tác với mô hình, giúp các nhà phát triển và những người đam mê AI tiên tiến dễ tiếp cận hơn.