Artificial Intelligence
Wszystko, co musisz wiedzieć o Lamie 3 | Najpotężniejszy jak dotąd model open source | Koncepcje do wykorzystania
Meta niedawno wydała Lama 3, następną generację najnowocześniejszego modelu dużego języka (LLM) o otwartym kodzie źródłowym. Opierając się na fundamentach swojego poprzednika, Llama 3 ma na celu ulepszenie możliwości, które uczyniły Llamę 2 znaczącym konkurentem ChatGPT w zakresie oprogramowania open source, jak opisano w kompleksowej recenzji w artykule Lama 2: Głębokie zanurzenie się w konkursie Open Source ChatGPT.
W tym artykule omówimy podstawowe koncepcje stojące za Llamą 3, zbadamy jej innowacyjną architekturę i proces szkolenia oraz przedstawimy praktyczne wskazówki dotyczące odpowiedzialnego uzyskiwania dostępu, korzystania i wdrażania tego przełomowego modelu. Niezależnie od tego, czy jesteś badaczem, programistą czy entuzjastą sztucznej inteligencji, ten post wyposaży Cię w wiedzę i zasoby potrzebne do wykorzystania mocy Llama 3 w Twoich projektach i aplikacjach.
Ewolucja Lamy: Od Lamy 2 do Lamy 3
Dyrektor generalny Meta, Mark Zuckerberg, ogłosił debiut Llama 3, najnowszego modelu AI opracowanego przez Meta AI. Ten najnowocześniejszy model, obecnie dostępny na zasadach open source, ma ulepszyć różne produkty Meta, w tym Messenger i Instagram. Zuckerberg podkreślił, że Llama 3 pozycjonuje Meta AI jako najbardziej zaawansowaną swobodnie dostępny asystent AI.
Zanim porozmawiamy o szczegółach Llama 3, wróćmy krótko do jej poprzedniczki, Llama 2. Wprowadzona w 2022 roku Llama 2 była znaczącym kamieniem milowym w krajobrazie LLM typu open source, oferując potężny i wydajny model, który można uruchomić na sprzęcie konsumenckim .
Jednakże, choć Lama 2 była znaczącym osiągnięciem, miała swoje ograniczenia. Użytkownicy zgłaszali problemy związane z fałszywymi odmowami (model odmawiający odpowiedzi na łagodne podpowiedzi), ograniczoną przydatnością i możliwością poprawy w obszarach takich jak rozumowanie i generowanie kodu.
Enter Llama 3: Odpowiedź Meta na te wyzwania i opinie społeczności. W przypadku Llama 3 Meta postanowiła zbudować najlepsze modele open source na równi z najlepszymi dostępnymi obecnie modelami zastrzeżonymi, traktując jednocześnie priorytetowo praktyki odpowiedzialnego rozwoju i wdrażania.
Lama 3: Architektura i szkolenie
Jedną z kluczowych innowacji w Llama 3 jest tokenizer, który oferuje znacznie rozszerzone słownictwo Tokeny 128,256 (w porównaniu z 32,000 2 w Lamie XNUMX). To większe słownictwo pozwala na bardziej wydajne kodowanie tekstu, zarówno na wejściu, jak i na wyjściu, co potencjalnie prowadzi do silniejszej wielojęzyczności i ogólnej poprawy wydajności.
Lama 3 zawiera również Uwaga dotycząca zapytania grupowego (GQA), wydajna technika reprezentacji, która zwiększa skalowalność i pomaga modelowi skuteczniej obsługiwać dłuższe konteksty. The 8B wersja Lamy 3 wykorzystuje GQA, podczas gdy obie wersje 8B i 70B modele mogą przetwarzać sekwencje do Tokeny 8,192.
Dane szkoleniowe i skalowanie
Dane treningowe wykorzystywane w Llama 3 są kluczowym czynnikiem wpływającym na poprawę jego wydajności. Meta stworzyła ogromny zbiór danych obejmujący ponad 15 bilionów tokenów z publicznie dostępnych źródeł internetowych, siedmiokrotnie większy niż zbiór danych wykorzystany w Lamie 2. Zbiór ten zawiera również znaczną część (ponad 5%) wysokiej jakości danych w języku innym niż angielski, obejmujących ponad Języki 30w ramach przygotowań do przyszłych aplikacji wielojęzycznych.
Aby zapewnić jakość danych, Meta zastosowała zaawansowane techniki filtrowania, w tym filtry heurystyczne, filtry NSFW, deduplikację semantyczną i klasyfikatory tekstu przeszkolone w programie Llama 2 w celu przewidywania jakości danych. Zespół przeprowadził także szeroko zakrojone eksperymenty, aby określić optymalną kombinację źródeł danych do wstępnego szkolenia, zapewniając, że Llama 3 będzie dobrze działać w szerokim zakresie przypadków użycia, w tym w ciekawostkach, STEM, kodowaniu i wiedzy historycznej.
Zwiększenie skali treningu wstępnego było kolejnym krytycznym aspektem rozwoju Llama 3. Meta opracowała prawa skalowania, które umożliwiły im przewidywanie wydajności największych modeli w kluczowych zadaniach, takich jak generowanie kodu, przed ich faktycznym szkoleniem. Na tej podstawie podjęto decyzje dotyczące łączenia danych i alokacji obliczeń, co ostatecznie doprowadziło do bardziej wydajnego i skutecznego szkolenia.
Największe modele Llama 3 zostały przeszkolone na dwóch niestandardowych klastrach GPU z 24,000 2 procesorów graficznych, wykorzystując kombinację technik równoległości danych, równoległości modeli i równoległości potoków. Zaawansowany stos szkoleniowy Meta automatycznie wykrywa błędy, obsługuje je i konserwuje, maksymalizując czas pracy procesora graficznego i zwiększając wydajność szkolenia około trzykrotnie w porównaniu z Llamą XNUMX.
Instrukcja dostrajania i wydajności
Aby uwolnić pełny potencjał Llama 3 w zakresie aplikacji do czatowania i dialogu, Meta wprowadziła innowacje w swoim podejściu do dostrajania instrukcji. Jego metoda łączy nadzorowane dostrajanie (SFT), pobieranie próbek odrzuconych, proksymalna optymalizacja polityki (PPO) i bezpośrednia optymalizacja preferencji (IOD).
Jakość podpowiedzi stosowanych w SFT oraz rankingi preferencji stosowane w PPO i DPO odegrały kluczową rolę w działaniu dostosowanych modeli. Zespół Meta starannie selekcjonował te dane i przeprowadził wiele rund kontroli jakości adnotacji dostarczonych przez osoby piszące.
Szkolenie w zakresie rankingów preferencji za pośrednictwem PPO i DPO również znacznie poprawiło wydajność Lamy 3 w zadaniach wnioskowania i kodowania. Meta odkryła, że nawet jeśli model ma trudności z bezpośrednią odpowiedzią na pytanie, nadal może wygenerować prawidłowy ślad rozumowania. Trening dotyczący rankingów preferencji umożliwił modelowi nauczenie się, jak wybrać poprawną odpowiedź z tych śladów.
Wyniki mówią same za siebie: Llama 3 przewyższa wiele dostępnych modeli czatów typu open source w popularnych testach branżowych, ustanawiając nową, najnowocześniejszą wydajność dla LLM w skalach parametrów 8B i 70B.
Odpowiedzialny rozwój i względy bezpieczeństwa
Dążąc do najnowocześniejszej wydajności, Meta nadała również priorytet odpowiedzialnym opracowywaniu i wdrażaniu praktyk dla Llama 3. Firma przyjęła podejście na poziomie systemowym, wyobrażając sobie modele Llama 3 jako część szerszego ekosystemu, który daje programistom kontrolę, umożliwiając im projektowanie i dostosowywać modele do konkretnych przypadków użycia i wymagań bezpieczeństwa.
Meta przeprowadziła szeroko zakrojone ćwiczenia związane z red-teamem, przeprowadziła oceny kontradyktoryjne i wdrożyła techniki ograniczania bezpieczeństwa, aby obniżyć ryzyko szczątkowe w swoich modelach dostosowanych do instrukcji. Firma przyznaje jednak, że ryzyko szczątkowe prawdopodobnie pozostanie i zaleca, aby programiści ocenili to ryzyko w kontekście konkretnych przypadków użycia.
Aby wspierać odpowiedzialne wdrażanie, Meta zaktualizowała swój Przewodnik odpowiedzialnego użytkowania, udostępniając programistom kompleksowe zasoby umożliwiające wdrażanie najlepszych praktyk w zakresie bezpieczeństwa na poziomie modelu i systemu w swoich aplikacjach. Przewodnik obejmuje takie tematy, jak moderowanie treści, ocena ryzyka i korzystanie z narzędzi bezpieczeństwa, takich jak Llama Guard 2 i Code Shield.
Llama Guard 2, zbudowany w oparciu o taksonomię MLCommons, przeznaczony jest do klasyfikowania danych wejściowych (podpowiedzi) i odpowiedzi LLM, wykrywając treści, które można uznać za niebezpieczne lub szkodliwe. CyberSecEval 2 rozszerza swojego poprzednika, dodając środki zapobiegające nadużyciom interpretera kodu modelu, ofensywnym funkcjom cyberbezpieczeństwa i podatności na ataki polegające na natychmiastowym wstrzykiwaniu.
Code Shield, nowe wprowadzenie w Llama 3, dodaje filtrowanie w czasie wnioskowania niezabezpieczonego kodu generowanego przez LLM, ograniczając ryzyko związane z sugestiami niepewnego kodu, nadużyciem interpretera kodu i bezpiecznym wykonywaniem poleceń.
Dostęp i korzystanie z Lamy 3
Po premierze Llama 3 firmy Meta AI udostępniono kilka narzędzi typu open source do lokalnego wdrażania w różnych systemach operacyjnych, w tym Mac, Windows i Linux. W tej sekcji szczegółowo opisano trzy godne uwagi narzędzia: Ollama, Open WebUI i LM Studio, z których każde oferuje unikalne funkcje umożliwiające wykorzystanie możliwości Lamy 3 na urządzeniach osobistych.
Ollama: Dostępne dla komputerów Mac, Linux i Windows, Ollama upraszcza działanie Llama 3 i innych dużych modeli językowych na komputerach osobistych, nawet tych z mniej wytrzymałym sprzętem. Zawiera menedżera pakietów ułatwiającego zarządzanie modelami i obsługuje polecenia na różnych platformach w celu pobierania i uruchamiania modeli.
Otwórz WebUI za pomocą Dockera: To narzędzie zapewnia przyjazną dla użytkownika, Doker-interfejs zgodny z systemami Mac, Linux i Windows. Bezproblemowo integruje się z modelami z rejestru Ollama, umożliwiając użytkownikom wdrażanie modeli takich jak Llama 3 i interakcję z nimi w ramach lokalnego interfejsu internetowego.
Studio LM: Kierowanie reklam na użytkowników komputerów Mac, Linux i Windows, Studio LM obsługuje szereg modeli i jest zbudowany na projekcie llama.cpp. Zapewnia interfejs czatu i ułatwia bezpośrednią interakcję z różnymi modelami, w tym modelem Llama 3 8B Instruct.
Narzędzia te zapewniają użytkownikom możliwość efektywnego korzystania z Llama 3 na swoich urządzeniach osobistych, uwzględniając szereg umiejętności technicznych i wymagań. Każda platforma oferuje szczegółowe procesy konfiguracji i interakcji z modelem, dzięki czemu zaawansowana sztuczna inteligencja jest bardziej dostępna dla programistów i entuzjastów.