Artificial Intelligence
Alles wat je moet weten over Lama 3 | Het krachtigste open source-model tot nu toe | Concepten voor gebruik
Meta is onlangs uitgebracht Lama 3, de volgende generatie van zijn ultramoderne open source grote taalmodel (LLM). Voortbouwend op de fundamenten van zijn voorganger, wil Llama 3 de mogelijkheden verbeteren die Llama 2 positioneerden als een belangrijke open-source concurrent van ChatGPT, zoals uiteengezet in de uitgebreide recensie in het artikel. Llama 2: een diepe duik in de open source-uitdager van ChatGPT.
In dit artikel bespreken we de kernconcepten achter Llama 3, verkennen we de innovatieve architectuur en het trainingsproces ervan, en geven we praktische begeleiding over hoe je dit baanbrekende model op een verantwoorde manier kunt benaderen, gebruiken en inzetten. Of u nu een onderzoeker, ontwikkelaar of AI-liefhebber bent, dit bericht zal u voorzien van de kennis en middelen die nodig zijn om de kracht van Llama 3 voor uw projecten en toepassingen te benutten.
De evolutie van lama: van lama 2 tot lama 3
Meta's CEO, Mark Zuckerberg, aangekondigd het debuut van Llama 3, het nieuwste AI-model ontwikkeld door Meta AI. Dit ultramoderne model, nu open source, zal de verschillende producten van Meta, waaronder Messenger en Instagram, verbeteren. Zuckerberg benadrukte dat Llama 3 Meta AI als de meest geavanceerde positioneert vrij beschikbare AI-assistent.
Voordat we het hebben over de specifieke kenmerken van Llama 3, gaan we eerst even terug naar zijn voorganger, Llama 2. Llama 2022, geïntroduceerd in 2, was een belangrijke mijlpaal in het open-source LLM-landschap en bood een krachtig en efficiënt model dat op consumentenhardware kon worden uitgevoerd. .
Hoewel Llama 2 een opmerkelijke prestatie was, had het echter zijn beperkingen. Gebruikers meldden problemen met valse weigeringen (het model weigerde goedaardige aanwijzingen te beantwoorden), beperkte behulpzaamheid en ruimte voor verbetering op gebieden als redeneren en het genereren van codes.
Enter Llama 3: Meta's reactie op deze uitdagingen en de feedback van de community. Met Llama 3 heeft Meta zich ten doel gesteld de beste open-sourcemodellen te bouwen die vergelijkbaar zijn met de beste propriëtaire modellen die momenteel beschikbaar zijn, terwijl ze ook prioriteit geeft aan verantwoorde ontwikkelings- en implementatiepraktijken.
Lama 3: Architectuur en training
Een van de belangrijkste innovaties in Llama 3 is de tokenizer, die over een aanzienlijk uitgebreide woordenschat beschikt 128,256 tokens (tegenover 32,000 in Lama 2). Deze grotere woordenschat maakt efficiëntere codering van tekst mogelijk, zowel voor invoer als uitvoer, wat mogelijk kan leiden tot sterkere meertaligheid en algemene prestatieverbeteringen.
Lama 3 bevat ook Gegroepeerde query-aandacht (GQA), een efficiënte representatietechniek die de schaalbaarheid verbetert en het model helpt effectiever met langere contexten om te gaan. De 8B versie van Llama 3 maakt gebruik van GQA, terwijl beide de 8B en 70B modellen kunnen reeksen verwerken tot 8,192 tokens.
Trainingsgegevens en schaling
De trainingsgegevens die voor Llama 3 worden gebruikt, zijn een cruciale factor in de verbeterde prestaties. Meta heeft een enorme dataset samengesteld van meer dan 15 biljoen tokens uit openbaar beschikbare online bronnen, zeven keer groter dan de dataset die voor Llama 2 wordt gebruikt. Deze dataset bevat ook een aanzienlijk deel (meer dan 5%) niet-Engelse gegevens van hoge kwaliteit, die meer dan 30 talen, ter voorbereiding op toekomstige meertalige toepassingen.
Om de datakwaliteit te garanderen, gebruikte Meta geavanceerde filtertechnieken, waaronder heuristische filters, NSFW-filters, semantische deduplicatie en tekstclassificatoren die waren getraind op Llama 2 om de datakwaliteit te voorspellen. Het team voerde ook uitgebreide experimenten uit om de optimale mix van gegevensbronnen voor voortraining te bepalen, zodat Llama 3 goed presteert in een breed scala aan gebruiksscenario's, waaronder trivia, STEM, codering en historische kennis.
Het opschalen van de voortraining was een ander cruciaal aspect van de ontwikkeling van Llama 3. Meta ontwikkelde schaalwetten waarmee ze de prestaties van de grootste modellen op belangrijke taken, zoals het genereren van code, konden voorspellen voordat ze daadwerkelijk werden getraind. Dit vormde de basis voor de beslissingen over de datamix en de toewijzing van computers, wat uiteindelijk leidde tot efficiëntere en effectievere training.
De grootste modellen van Llama 3 zijn getraind op twee op maat gemaakte 24,000 GPU-clusters, waarbij gebruik werd gemaakt van een combinatie van data-parallellisatie, model-parallellisatie en pijplijn-parallellisatietechnieken. Meta's geavanceerde trainingsstack geautomatiseerde foutdetectie, afhandeling en onderhoud, waardoor de GPU-uptime wordt gemaximaliseerd en de trainingsefficiëntie ongeveer drie keer wordt verhoogd in vergelijking met Llama 2.
Instructie Fine-tuning en prestaties
Om het volledige potentieel van Llama 3 voor chat- en dialoogtoepassingen te ontsluiten, heeft Meta zijn aanpak voor het afstemmen van instructies geïnnoveerd. De methode combineert begeleide finetuning (SFT), afkeurbemonstering, proximale beleidsoptimalisatie (PPO), en directe voorkeursoptimalisatie (DPO).
De kwaliteit van de aanwijzingen die in SFT worden gebruikt en de voorkeursrangschikkingen die in PPO en DPO worden gebruikt, speelden een cruciale rol in de prestaties van de op elkaar afgestemde modellen. Het team van Meta heeft deze gegevens zorgvuldig samengesteld en meerdere rondes van kwaliteitsborging uitgevoerd op annotaties van menselijke annotators.
Het trainen van voorkeursrangschikkingen via PPO en DPO verbeterde ook aanzienlijk de prestaties van Llama 3 op het gebied van redeneer- en codeertaken. Meta ontdekte dat zelfs als een model moeite heeft om een redeneervraag direct te beantwoorden, het nog steeds het juiste redeneerspoor kan produceren. Door te trainen op het rangschikken van voorkeuren kon het model leren hoe het juiste antwoord uit deze sporen kon worden geselecteerd.
De resultaten spreken voor zich: Llama 3 presteert beter dan veel beschikbare open-source chatmodellen op algemene industriebenchmarks, en levert nieuwe state-of-the-art prestaties voor LLM's op de parameterschalen 8B en 70B.
Verantwoorde ontwikkeling en veiligheidsoverwegingen
Terwijl Meta de allernieuwste prestaties nastreefde, gaf Meta ook prioriteit aan verantwoorde ontwikkelings- en implementatiepraktijken voor Llama 3. Het bedrijf hanteerde een aanpak op systeemniveau, waarbij Llama 3-modellen werden voorgesteld als onderdeel van een breder ecosysteem dat ontwikkelaars aan het stuur zet, waardoor ze hun eigen ontwerpen kunnen ontwerpen. en pas de modellen aan voor hun specifieke gebruiksscenario's en veiligheidseisen.
Meta voerde uitgebreide red-teaming-oefeningen uit, voerde vijandige evaluaties uit en implementeerde veiligheidsbeperkende technieken om de restrisico's te verlagen in zijn op instructies afgestemde modellen. Het bedrijf erkent echter dat er waarschijnlijk restrisico's zullen blijven bestaan en beveelt ontwikkelaars aan deze risico's te beoordelen in de context van hun specifieke gebruiksscenario's.
Om verantwoorde implementatie te ondersteunen heeft Meta zijn Responsible Use Guide bijgewerkt, die ontwikkelaars een uitgebreide bron biedt om best practices op het gebied van veiligheid op model- en systeemniveau voor hun applicaties te implementeren. De gids behandelt onderwerpen als inhoudsmoderatie, risicobeoordeling en het gebruik van veiligheidstools zoals Llama Guard 2 en Code Shield.
Llama Guard 2, gebouwd op de MLCommons-taxonomie, is ontworpen om LLM-invoer (prompts) en reacties te classificeren en inhoud te detecteren die als onveilig of schadelijk kan worden beschouwd. CyberSecEval 2 breidt zijn voorganger uit door maatregelen toe te voegen om misbruik van de codeinterpreter van het model, offensieve cyberbeveiligingsmogelijkheden en de gevoeligheid voor prompte injectie-aanvallen te voorkomen.
Code Shield, een nieuwe introductie in Llama 3, voegt filtering op inferentietijd toe van onveilige code geproduceerd door LLM's, waardoor de risico's die gepaard gaan met onveilige codesuggesties, misbruik van codetolken en veilige uitvoering van opdrachten worden beperkt.
Toegang tot en gebruik van Lama 3
Na de lancering van Meta AI's Llama 3 zijn er verschillende open-sourcetools beschikbaar gekomen voor lokale implementatie op verschillende besturingssystemen, waaronder Mac, Windows en Linux. In dit gedeelte worden drie opmerkelijke tools beschreven: Ollama, Open WebUI en LM Studio, die elk unieke functies bieden om de mogelijkheden van Llama 3 op persoonlijke apparaten te benutten.
Ollama: Beschikbaar voor Mac, Linux en Windows, Ollama vereenvoudigt de werking van Llama 3 en andere grote taalmodellen op personal computers, zelfs die met minder robuuste hardware. Het bevat een pakketbeheerder voor eenvoudig modelbeheer en ondersteunt opdrachten op verschillende platforms voor het downloaden en uitvoeren van modellen.
Open WebUI met Docker: Deze tool biedt een gebruiksvriendelijke, havenarbeider-gebaseerde interface compatibel met Mac, Linux en Windows. Het integreert naadloos met modellen uit het Ollama-register, waardoor gebruikers modellen zoals Llama 3 binnen een lokale webinterface kunnen implementeren en ermee kunnen communiceren.
LM Studio: Gericht op gebruikers op Mac, Linux en Windows, LM Studio ondersteunt een reeks modellen en is gebouwd op het llama.cpp-project. Het biedt een chatinterface en vergemakkelijkt directe interactie met verschillende modellen, waaronder het Llama 3 8B Instruct-model.
Deze tools zorgen ervoor dat gebruikers Llama 3 efficiënt kunnen gebruiken op hun persoonlijke apparaten en voldoen aan een reeks technische vaardigheden en vereisten. Elk platform biedt stapsgewijze processen voor configuratie en modelinteractie, waardoor geavanceerde AI toegankelijker wordt voor ontwikkelaars en enthousiastelingen.