stomp Alles wat u moet weten over Lama 3 | Het krachtigste open source-model tot nu toe | Te gebruiken concepten - Unite.AI
Verbind je met ons

Artificial Intelligence

Alles wat je moet weten over Lama 3 | Het krachtigste open source-model tot nu toe | Concepten voor gebruik

mm
Bijgewerkt on
Meta Llama 3 open source LLM presteert beter dan GPT 4

Meta is onlangs uitgebracht Lama 3, de volgende generatie van zijn ultramoderne open source grote taalmodel (LLM). Voortbouwend op de fundamenten van zijn voorganger, wil Llama 3 de mogelijkheden verbeteren die Llama 2 positioneerden als een belangrijke open-source concurrent van ChatGPT, zoals uiteengezet in de uitgebreide recensie in het artikel. Llama 2: een diepe duik in de open source-uitdager van ChatGPT.

In dit artikel bespreken we de kernconcepten achter Llama 3, verkennen we de innovatieve architectuur en het trainingsproces ervan, en geven we praktische begeleiding over hoe je dit baanbrekende model op een verantwoorde manier kunt benaderen, gebruiken en inzetten. Of u nu een onderzoeker, ontwikkelaar of AI-liefhebber bent, dit bericht zal u voorzien van de kennis en middelen die nodig zijn om de kracht van Llama 3 voor uw projecten en toepassingen te benutten.

De evolutie van lama: van lama 2 tot lama 3

Meta's CEO, Mark Zuckerberg, aangekondigd het debuut van Llama 3, het nieuwste AI-model ontwikkeld door Meta AI. Dit ultramoderne model, nu open source, zal de verschillende producten van Meta, waaronder Messenger en Instagram, verbeteren. Zuckerberg benadrukte dat Llama 3 Meta AI als de meest geavanceerde positioneert vrij beschikbare AI-assistent.

Voordat we het hebben over de specifieke kenmerken van Llama 3, gaan we eerst even terug naar zijn voorganger, Llama 2. Llama 2022, geïntroduceerd in 2, was een belangrijke mijlpaal in het open-source LLM-landschap en bood een krachtig en efficiënt model dat op consumentenhardware kon worden uitgevoerd. .

Hoewel Llama 2 een opmerkelijke prestatie was, had het echter zijn beperkingen. Gebruikers meldden problemen met valse weigeringen (het model weigerde goedaardige aanwijzingen te beantwoorden), beperkte behulpzaamheid en ruimte voor verbetering op gebieden als redeneren en het genereren van codes.

Enter Llama 3: Meta's reactie op deze uitdagingen en de feedback van de community. Met Llama 3 heeft Meta zich ten doel gesteld de beste open-sourcemodellen te bouwen die vergelijkbaar zijn met de beste propriëtaire modellen die momenteel beschikbaar zijn, terwijl ze ook prioriteit geeft aan verantwoorde ontwikkelings- en implementatiepraktijken.

Lama 3: Architectuur en training

Een van de belangrijkste innovaties in Llama 3 is de tokenizer, die over een aanzienlijk uitgebreide woordenschat beschikt 128,256 tokens (tegenover 32,000 in Lama 2). Deze grotere woordenschat maakt efficiëntere codering van tekst mogelijk, zowel voor invoer als uitvoer, wat mogelijk kan leiden tot sterkere meertaligheid en algemene prestatieverbeteringen.

Lama 3 bevat ook Gegroepeerde query-aandacht (GQA), een efficiënte representatietechniek die de schaalbaarheid verbetert en het model helpt effectiever met langere contexten om te gaan. De 8B versie van Llama 3 maakt gebruik van GQA, terwijl beide de 8B en 70B modellen kunnen reeksen verwerken tot 8,192 tokens.

Trainingsgegevens en schaling

De trainingsgegevens die voor Llama 3 worden gebruikt, zijn een cruciale factor in de verbeterde prestaties. Meta heeft een enorme dataset samengesteld van meer dan 15 biljoen tokens uit openbaar beschikbare online bronnen, zeven keer groter dan de dataset die voor Llama 2 wordt gebruikt. Deze dataset bevat ook een aanzienlijk deel (meer dan 5%) niet-Engelse gegevens van hoge kwaliteit, die meer dan 30 talen, ter voorbereiding op toekomstige meertalige toepassingen.

Om de datakwaliteit te garanderen, gebruikte Meta geavanceerde filtertechnieken, waaronder heuristische filters, NSFW-filters, semantische deduplicatie en tekstclassificatoren die waren getraind op Llama 2 om de datakwaliteit te voorspellen. Het team voerde ook uitgebreide experimenten uit om de optimale mix van gegevensbronnen voor voortraining te bepalen, zodat Llama 3 goed presteert in een breed scala aan gebruiksscenario's, waaronder trivia, STEM, codering en historische kennis.

Het opschalen van de voortraining was een ander cruciaal aspect van de ontwikkeling van Llama 3. Meta ontwikkelde schaalwetten waarmee ze de prestaties van de grootste modellen op belangrijke taken, zoals het genereren van code, konden voorspellen voordat ze daadwerkelijk werden getraind. Dit vormde de basis voor de beslissingen over de datamix en de toewijzing van computers, wat uiteindelijk leidde tot efficiëntere en effectievere training.

De grootste modellen van Llama 3 zijn getraind op twee op maat gemaakte 24,000 GPU-clusters, waarbij gebruik werd gemaakt van een combinatie van data-parallellisatie, model-parallellisatie en pijplijn-parallellisatietechnieken. Meta's geavanceerde trainingsstack geautomatiseerde foutdetectie, afhandeling en onderhoud, waardoor de GPU-uptime wordt gemaximaliseerd en de trainingsefficiëntie ongeveer drie keer wordt verhoogd in vergelijking met Llama 2.

Instructie Fine-tuning en prestaties

Om het volledige potentieel van Llama 3 voor chat- en dialoogtoepassingen te ontsluiten, heeft Meta zijn aanpak voor het afstemmen van instructies geïnnoveerd. De methode combineert begeleide finetuning (SFT), afkeurbemonstering, proximale beleidsoptimalisatie (PPO), en directe voorkeursoptimalisatie (DPO).

De kwaliteit van de aanwijzingen die in SFT worden gebruikt en de voorkeursrangschikkingen die in PPO en DPO worden gebruikt, speelden een cruciale rol in de prestaties van de op elkaar afgestemde modellen. Het team van Meta heeft deze gegevens zorgvuldig samengesteld en meerdere rondes van kwaliteitsborging uitgevoerd op annotaties van menselijke annotators.

Het trainen van voorkeursrangschikkingen via PPO en DPO verbeterde ook aanzienlijk de prestaties van Llama 3 op het gebied van redeneer- en codeertaken. Meta ontdekte dat zelfs als een model moeite heeft om een ​​redeneervraag direct te beantwoorden, het nog steeds het juiste redeneerspoor kan produceren. Door te trainen op het rangschikken van voorkeuren kon het model leren hoe het juiste antwoord uit deze sporen kon worden geselecteerd.

Arena-resultaten

De resultaten spreken voor zich: Llama 3 presteert beter dan veel beschikbare open-source chatmodellen op algemene industriebenchmarks, en levert nieuwe state-of-the-art prestaties voor LLM's op de parameterschalen 8B en 70B.

Verantwoorde ontwikkeling en veiligheidsoverwegingen

Terwijl Meta de allernieuwste prestaties nastreefde, gaf Meta ook prioriteit aan verantwoorde ontwikkelings- en implementatiepraktijken voor Llama 3. Het bedrijf hanteerde een aanpak op systeemniveau, waarbij Llama 3-modellen werden voorgesteld als onderdeel van een breder ecosysteem dat ontwikkelaars aan het stuur zet, waardoor ze hun eigen ontwerpen kunnen ontwerpen. en pas de modellen aan voor hun specifieke gebruiksscenario's en veiligheidseisen.

Meta voerde uitgebreide red-teaming-oefeningen uit, voerde vijandige evaluaties uit en implementeerde veiligheidsbeperkende technieken om de restrisico's te verlagen in zijn op instructies afgestemde modellen. Het bedrijf erkent echter dat er waarschijnlijk restrisico's zullen blijven bestaan ​​en beveelt ontwikkelaars aan deze risico's te beoordelen in de context van hun specifieke gebruiksscenario's.

Om verantwoorde implementatie te ondersteunen heeft Meta zijn Responsible Use Guide bijgewerkt, die ontwikkelaars een uitgebreide bron biedt om best practices op het gebied van veiligheid op model- en systeemniveau voor hun applicaties te implementeren. De gids behandelt onderwerpen als inhoudsmoderatie, risicobeoordeling en het gebruik van veiligheidstools zoals Llama Guard 2 en Code Shield.

Llama Guard 2, gebouwd op de MLCommons-taxonomie, is ontworpen om LLM-invoer (prompts) en reacties te classificeren en inhoud te detecteren die als onveilig of schadelijk kan worden beschouwd. CyberSecEval 2 breidt zijn voorganger uit door maatregelen toe te voegen om misbruik van de codeinterpreter van het model, offensieve cyberbeveiligingsmogelijkheden en de gevoeligheid voor prompte injectie-aanvallen te voorkomen.

Code Shield, een nieuwe introductie in Llama 3, voegt filtering op inferentietijd toe van onveilige code geproduceerd door LLM's, waardoor de risico's die gepaard gaan met onveilige codesuggesties, misbruik van codetolken en veilige uitvoering van opdrachten worden beperkt.

Toegang tot en gebruik van Lama 3

Na de lancering van Meta AI's Llama 3 zijn er verschillende open-sourcetools beschikbaar gekomen voor lokale implementatie op verschillende besturingssystemen, waaronder Mac, Windows en Linux. In dit gedeelte worden drie opmerkelijke tools beschreven: Ollama, Open WebUI en LM Studio, die elk unieke functies bieden om de mogelijkheden van Llama 3 op persoonlijke apparaten te benutten.

Ollama: Beschikbaar voor Mac, Linux en Windows, Ollama vereenvoudigt de werking van Llama 3 en andere grote taalmodellen op personal computers, zelfs die met minder robuuste hardware. Het bevat een pakketbeheerder voor eenvoudig modelbeheer en ondersteunt opdrachten op verschillende platforms voor het downloaden en uitvoeren van modellen.

Open WebUI met Docker: Deze tool biedt een gebruiksvriendelijke, havenarbeider-gebaseerde interface compatibel met Mac, Linux en Windows. Het integreert naadloos met modellen uit het Ollama-register, waardoor gebruikers modellen zoals Llama 3 binnen een lokale webinterface kunnen implementeren en ermee kunnen communiceren.

LM Studio: Gericht op gebruikers op Mac, Linux en Windows, LM Studio ondersteunt een reeks modellen en is gebouwd op het llama.cpp-project. Het biedt een chatinterface en vergemakkelijkt directe interactie met verschillende modellen, waaronder het Llama 3 8B Instruct-model.

Deze tools zorgen ervoor dat gebruikers Llama 3 efficiënt kunnen gebruiken op hun persoonlijke apparaten en voldoen aan een reeks technische vaardigheden en vereisten. Elk platform biedt stapsgewijze processen voor configuratie en modelinteractie, waardoor geavanceerde AI toegankelijker wordt voor ontwikkelaars en enthousiastelingen.

Lama 3 op schaal inzetten

Naast het bieden van directe toegang tot de modelgewichten, werkt Meta samen met verschillende cloudproviders, model-API-services en hardwareplatforms om een ​​naadloze implementatie van Llama 3 op schaal mogelijk te maken.

Een van de belangrijkste voordelen van Llama 3 is de verbeterde token-efficiëntie, dankzij de nieuwe tokenizer. Uit benchmarks blijkt dat Llama 3 maximaal nodig heeft 15% minder tokens vergeleken met Llama 2, wat resulteert in een snellere en kosteneffectievere gevolgtrekking.

De integratie van Grouped Query Attention (GQA) in de 8B-versie van Llama 3 draagt ​​ertoe bij dat de inferentie-efficiëntie vergelijkbaar blijft met de 7B-versie van Llama 2, ondanks de toename van het aantal parameters.

Om het implementatieproces te vereenvoudigen, heeft Meta de Llama Recipes-repository ter beschikking gesteld, die open-sourcecode en voorbeelden bevat voor verfijning, implementatie, modelevaluatie en meer. Deze repository dient als een waardevolle bron voor ontwikkelaars die de mogelijkheden van Llama 3 in hun applicaties willen benutten.

Voor degenen die geïnteresseerd zijn in het verkennen van de prestaties van Llama 3: Meta heeft zijn nieuwste modellen geïntegreerd in Meta AI, een toonaangevende AI-assistent gebouwd met Llama 3-technologie. Gebruikers kunnen communiceren met Meta AI via verschillende Meta-apps, zoals Facebook, Instagram, WhatsApp, Messenger en internet, om dingen gedaan te krijgen, te leren, te creëren en verbinding te maken met de dingen die voor hen belangrijk zijn.

Wat is het volgende voor Lama 3?

Terwijl de 8B- en 70B-modellen het begin markeren van de Llama 3-release, heeft Meta ambitieuze plannen voor de toekomst van deze baanbrekende LLM.

In de komende maanden kunnen we nieuwe mogelijkheden verwachten, waaronder multimodaliteit (de mogelijkheid om verschillende datamodaliteiten, zoals afbeeldingen en video's) te verwerken en te genereren), meertaligheid (ondersteuning van meerdere talen) en veel langere contextvensters voor betere prestaties op het gebied van datacommunicatie. taken die een uitgebreide context vereisen.

Bovendien is Meta van plan grotere modelgroottes uit te brengen, waaronder modellen met meer dan 400 miljard parameters, die momenteel in training zijn en veelbelovende trends laten zien op het gebied van prestaties en mogelijkheden.

Om het veld verder te ontwikkelen, zal Meta ook een gedetailleerd onderzoekspaper over Llama 3 publiceren, waarin zijn bevindingen en inzichten worden gedeeld met de bredere AI-gemeenschap.

Als voorproefje van wat gaat komen heeft Meta enkele vroege momentopnames gedeeld van de prestaties van het grootste LLM-model op verschillende benchmarks. Hoewel deze resultaten gebaseerd zijn op een vroeg controlepunt en aan verandering onderhevig zijn, bieden ze een spannend kijkje in het toekomstige potentieel van Llama 3.

Conclusie

Llama 3 vertegenwoordigt een belangrijke mijlpaal in de evolutie van open-source grote taalmodellen, waarbij de grenzen van prestaties, mogelijkheden en verantwoorde ontwikkelingspraktijken worden verlegd. Met zijn innovatieve architectuur, enorme trainingsdataset en geavanceerde verfijningstechnieken stelt Llama 3 nieuwe, ultramoderne benchmarks vast voor LLM's op de parameterschalen 8B en 70B.

Llama 3 is echter meer dan alleen een krachtig taalmodel; het is een bewijs van Meta's inzet voor het bevorderen van een open en verantwoordelijk AI-ecosysteem. Door uitgebreide bronnen, veiligheidstools en best practices te bieden, stelt Meta ontwikkelaars in staat het volledige potentieel van Llama 3 te benutten en tegelijkertijd een verantwoorde implementatie te garanderen die is afgestemd op hun specifieke gebruiksscenario's en doelgroepen.

Terwijl de reis van Llama 3 zich voortzet, met nieuwe mogelijkheden, modelgroottes en onderzoeksresultaten in het verschiet, wacht de AI-gemeenschap met spanning op de innovatieve toepassingen en doorbraken die ongetwijfeld uit deze baanbrekende LLM zullen voortkomen.

Of je nu een onderzoeker bent die de grenzen van natuurlijke taalverwerking verlegt, een ontwikkelaar die de volgende generatie intelligente applicaties bouwt, of een AI-liefhebber die nieuwsgierig is naar de nieuwste ontwikkelingen, Llama 3 belooft een krachtig hulpmiddel in je arsenaal te zijn, dat nieuwe deuren opent en nieuwe mogelijkheden biedt. het ontsluiten van een wereld van mogelijkheden.

De afgelopen vijf jaar heb ik me verdiept in de fascinerende wereld van Machine Learning en Deep Learning. Door mijn passie en expertise heb ik bijgedragen aan meer dan 50 verschillende software engineering projecten, met een bijzondere focus op AI/ML. Mijn voortdurende nieuwsgierigheid heeft me ook aangetrokken tot Natural Language Processing, een gebied dat ik graag verder wil verkennen.