Artificial Intelligence
Alles wat je moet weten over Lama 3 | Het krachtigste open source-model tot nu toe | Concepten voor gebruik

Meta is onlangs uitgebracht Lama 3, de volgende generatie van zijn ultramoderne open source grote taalmodel (LLM). Voortbouwend op de fundamenten van zijn voorganger, wil Llama 3 de mogelijkheden verbeteren die Llama 2 positioneerden als een belangrijke open-source concurrent van ChatGPT, zoals uiteengezet in de uitgebreide recensie in het artikel. Llama 2: een diepe duik in de open source-uitdager van ChatGPT.
In dit artikel bespreken we de kernconcepten achter Llama 3, verkennen we de innovatieve architectuur en het trainingsproces ervan, en geven we praktische begeleiding over hoe je dit baanbrekende model op een verantwoorde manier kunt benaderen, gebruiken en inzetten. Of u nu een onderzoeker, ontwikkelaar of AI-liefhebber bent, dit bericht zal u voorzien van de kennis en middelen die nodig zijn om de kracht van Llama 3 voor uw projecten en toepassingen te benutten.
De evolutie van lama: van lama 2 tot lama 3
Meta's CEO, Mark Zuckerberg, aangekondigd De introductie van Llama 3, het nieuwste AI-model ontwikkeld door Meta AI. Dit state-of-the-art model, nu open source, zal de verschillende producten van Meta, waaronder Messenger en Instagram, verbeteren. Zuckerberg benadrukte dat Llama 3 Meta AI positioneert als de meest geavanceerde vrij beschikbare AI-assistent.
Voordat we ingaan op de specifieke kenmerken van Llama 3, blikken we kort terug op zijn voorganger, Llama 2. Llama 2022 werd in 2 geïntroduceerd en was een belangrijke mijlpaal in het open-source LLM-landschap. Het was een krachtig en efficiënt model dat op consumentenhardware kon worden uitgevoerd.
Hoewel Llama 2 een opmerkelijke prestatie was, had het echter zijn beperkingen. Gebruikers meldden problemen met valse weigeringen (het model weigerde goedaardige aanwijzingen te beantwoorden), beperkte behulpzaamheid en ruimte voor verbetering op gebieden als redeneren en het genereren van codes.
Maak kennis met Llama 3: Meta's reactie op deze uitdagingen en de feedback van de community. Met Llama 3 heeft Meta zich ten doel gesteld de beste open-sourcemodellen te bouwen die vergelijkbaar zijn met de beste propriëtaire modellen die momenteel beschikbaar zijn, en tegelijkertijd prioriteit te geven aan verantwoorde ontwikkel- en implementatiepraktijken.
Lama 3: Architectuur en training
Een van de belangrijkste innovaties in Llama 3 is de tokenizer, die over een aanzienlijk uitgebreide woordenschat beschikt 128,256 tokens (tegenover 32,000 in Lama 2). Deze grotere woordenschat maakt efficiëntere codering van tekst mogelijk, zowel voor invoer als uitvoer, wat mogelijk kan leiden tot sterkere meertaligheid en algemene prestatieverbeteringen.
Lama 3 bevat ook Gegroepeerde query-aandacht (GQA), een efficiënte representatietechniek die de schaalbaarheid verbetert en het model helpt effectiever met langere contexten om te gaan. De 8B versie van Llama 3 maakt gebruik van GQA, terwijl beide de 8B en 70B modellen kunnen reeksen verwerken tot 8,192 tokens.
Trainingsgegevens en schaling
De trainingsgegevens die voor Llama 3 worden gebruikt, zijn een cruciale factor in de verbeterde prestaties. Meta heeft een enorme dataset samengesteld van meer dan 15 biljoen tokens uit openbaar beschikbare online bronnen, zeven keer groter dan de dataset die voor Llama 2 wordt gebruikt. Deze dataset bevat ook een aanzienlijk deel (meer dan 5%) niet-Engelse gegevens van hoge kwaliteit, die meer dan 30 talen, ter voorbereiding op toekomstige meertalige toepassingen.
Om de datakwaliteit te garanderen, gebruikte Meta geavanceerde filtertechnieken, waaronder heuristische filters, NSFW-filters, semantische deduplicatie en tekstclassificatoren die waren getraind op Llama 2 om de datakwaliteit te voorspellen. Het team voerde ook uitgebreide experimenten uit om de optimale mix van gegevensbronnen voor voortraining te bepalen, zodat Llama 3 goed presteert in een breed scala aan gebruiksscenario's, waaronder trivia, STEM, codering en historische kennis.
Het opschalen van de pretraining was een ander cruciaal aspect van de ontwikkeling van Llama 3. Meta ontwikkelde schaalwetten waarmee ze de prestaties van hun grootste modellen konden voorspellen voor belangrijke taken, zoals codegeneratie, voordat ze daadwerkelijk werden getraind. Dit was bepalend voor de beslissingen over datamix en rekenallocatie, wat uiteindelijk leidde tot efficiëntere en effectievere training.
De grootste modellen van Llama 3 werden getraind op twee speciaal gebouwde clusters met 24,000 GPU's, waarbij gebruik werd gemaakt van een combinatie van dataparallellisatie, modelparallellisatie en pipelineparallellisatietechnieken. De geavanceerde trainingsstack van Meta automatiseerde foutdetectie, -verwerking en -onderhoud, waardoor de GPU-uptime werd gemaximaliseerd en de trainingsefficiëntie ongeveer drie keer zo hoog werd als bij Llama 2.
Instructie Fine-tuning en prestaties
Om het volledige potentieel van Llama 3 voor chat- en dialoogtoepassingen te benutten, heeft Meta zijn aanpak voor het verfijnen van instructies geïnnoveerd. Deze methode combineert begeleide finetuning (SFT), afkeurbemonstering, proximale beleidsoptimalisatie (PPO), en directe voorkeursoptimalisatie (DPO).
De kwaliteit van de prompts die in SFT worden gebruikt en de voorkeursrangschikkingen die in PPO en DPO worden gebruikt, speelden een cruciale rol in de prestaties van de afgestemde modellen. Het team van Meta heeft deze data zorgvuldig samengesteld en meerdere kwaliteitsborgingsrondes uitgevoerd op de annotaties die door menselijke annotators zijn aangeleverd.
Training op voorkeursrangschikkingen via PPO en DPO verbeterde ook de prestaties van Llama 3 bij redeneer- en coderingstaken aanzienlijk. Meta ontdekte dat zelfs wanneer een model moeite heeft met het direct beantwoorden van een redeneervraag, het toch het juiste redeneerspoor kan produceren. Training op voorkeursrangschikkingen stelde het model in staat om te leren hoe het het juiste antwoord uit deze sporen kon selecteren.
De resultaten spreken voor zich: Llama 3 presteert beter dan veel beschikbare open-source chatmodellen op algemene industriebenchmarks, en levert nieuwe state-of-the-art prestaties voor LLM's op de parameterschalen 8B en 70B.
Verantwoorde ontwikkeling en veiligheidsoverwegingen
Naast het nastreven van toonaangevende prestaties, gaf Meta ook prioriteit aan verantwoorde ontwikkel- en implementatiepraktijken voor Llama 3. Het bedrijf hanteerde een aanpak op systeemniveau, waarbij Llama 3-modellen werden gezien als onderdeel van een breder ecosysteem dat ontwikkelaars de regie geeft en hen in staat stelt de modellen te ontwerpen en aan te passen aan hun specifieke use cases en veiligheidsvereisten.
Meta voerde uitgebreide red-teaming-oefeningen uit, voerde vijandige evaluaties uit en implementeerde veiligheidsbeperkende technieken om de restrisico's te verlagen in zijn op instructies afgestemde modellen. Het bedrijf erkent echter dat er waarschijnlijk restrisico's zullen blijven bestaan ​​en beveelt ontwikkelaars aan deze risico's te beoordelen in de context van hun specifieke gebruiksscenario's.
Om verantwoorde implementatie te ondersteunen heeft Meta zijn Responsible Use Guide bijgewerkt, die ontwikkelaars een uitgebreide bron biedt om best practices op het gebied van veiligheid op model- en systeemniveau voor hun applicaties te implementeren. De gids behandelt onderwerpen als inhoudsmoderatie, risicobeoordeling en het gebruik van veiligheidstools zoals Llama Guard 2 en Code Shield.
Llama Guard 2, gebaseerd op de MLCommons-taxonomie, is ontworpen om LLM-input (prompts) en -reacties te classificeren en content te detecteren die mogelijk als onveilig of schadelijk wordt beschouwd. CyberSecEval 2 bouwt voort op zijn voorganger door maatregelen toe te voegen ter voorkoming van misbruik van de code-interpreter van het model, aanvallende cybersecuritymogelijkheden en kwetsbaarheid voor prompt-injectieaanvallen.
Code Shield, een nieuwe introductie in Llama 3, voegt filtering op inferentietijd toe van onveilige code geproduceerd door LLM's, waardoor de risico's die gepaard gaan met onveilige codesuggesties, misbruik van codetolken en veilige uitvoering van opdrachten worden beperkt.
Toegang tot en gebruik van Lama 3
Na de lancering van Meta AI's Llama 3 zijn verschillende open-sourcetools beschikbaar gesteld voor lokale implementatie op diverse besturingssystemen, waaronder Mac, Windows en Linux. In dit gedeelte worden drie opvallende tools besproken: Ollama, Open WebUI en LM Studio, elk met unieke functies om de mogelijkheden van Llama 3 op persoonlijke apparaten te benutten.
Ollama: Beschikbaar voor Mac, Linux en Windows, Ollama vereenvoudigt de werking van Llama 3 en andere grote taalmodellen op personal computers, zelfs die met minder robuuste hardware. Het bevat een pakketbeheerder voor eenvoudig modelbeheer en ondersteunt opdrachten op verschillende platforms voor het downloaden en uitvoeren van modellen.
Open WebUI met Docker: Deze tool biedt een gebruiksvriendelijke, havenarbeider-gebaseerde interface compatibel met Mac, Linux en Windows. Het integreert naadloos met modellen uit het Ollama-register, waardoor gebruikers modellen zoals Llama 3 binnen een lokale webinterface kunnen implementeren en ermee kunnen communiceren.
LM Studio: Gericht op gebruikers op Mac, Linux en Windows, LM Studio ondersteunt een reeks modellen en is gebouwd op het llama.cpp-project. Het biedt een chatinterface en vergemakkelijkt directe interactie met verschillende modellen, waaronder het Llama 3 8B Instruct-model.
Deze tools zorgen ervoor dat gebruikers Llama 3 efficiënt kunnen gebruiken op hun persoonlijke apparaten en voldoen aan een reeks technische vaardigheden en vereisten. Elk platform biedt stapsgewijze processen voor configuratie en modelinteractie, waardoor geavanceerde AI toegankelijker wordt voor ontwikkelaars en enthousiastelingen.