Kunstmatige intelligentie
Binnenkijk in Microsoft’s Phi-3 Mini: Een lichtgewicht AI-model dat boven zijn gewicht uitstijgt
Microsoft heeft onlangs zijn nieuwste lichtgewicht taalmodel genaamd Phi-3 Mini onthuld, waarmee een trio van compacte AI-modellen van start gaat die zijn ontworpen om state-of-the-art prestaties te leveren terwijl ze klein genoeg zijn om efficiënt te draaien op apparaten met beperkte rekenbronnen. Met slechts 3,8 miljard parameters is Phi-3 Mini een fractie van de grootte van AI-reuzen zoals GPT-4, maar het belooft om hun mogelijkheden in veel sleutelgebieden te evenaren.
De ontwikkeling van Phi-3 Mini vertegenwoordigt een belangrijke mijlpaal in de zoektocht naar het democratiseren van geavanceerde AI-mogelijkheden door ze toegankelijk te maken op een breder scala aan hardware. De kleine voetafdruk van het model maakt het mogelijk om het lokaal te implementeren op smartphones, tablets en andere edge-apparaten, waarmee de latentie- en privacyproblemen die samenhangen met cloudgebaseerde modellen worden overwonnen. Dit opent nieuwe mogelijkheden voor intelligente on-device-ervaringen in verschillende domeinen, van virtuele assistenten en conversational AI tot code-assistenten en taalbegripsTaken.

- 4-bit quantized phi-3-mini running natively on an iPhone
Onder de motorkap: Architectuur en training
In zijn kern is Phi-3 Mini een transformer decoder-model gebouwd op een soortgelijke architectuur als het open-source Llama-2-model. Het heeft 32 lagen, 3072 verborgen dimensies en 32 aandachtshoofden, met een standaard contextlengte van 4.000 tokens. Microsoft heeft ook een lange contextversie genaamd Phi-3 Mini-128K geïntroduceerd, die de contextlengte uitbreidt tot een indrukwekkende 128.000 tokens met behulp van technieken zoals LongRope.
Wat Phi-3 Mini onderscheidt, is zijn trainingsmethodologie. In plaats van te vertrouwen op de brute kracht van enorme datasets en rekenkracht, heeft Microsoft zich gericht op het samenstellen van een hoogwaardige, redeneringsdichte trainingsdataset. Deze gegevens bestaan uit zwaar gefilterde webgegevens, evenals synthetische gegevens gegenereerd door grotere taalmodellen.
Het trainingsproces volgt een tweefasenbenadering. In de eerste fase wordt het model blootgesteld aan een diverse reeks websources die zijn bedoeld om het algemene kennis en taalbegrip te leren. De tweede fase combineert nog meer zwaar gefilterde webgegevens met synthetische gegevens die zijn ontworpen om logische redeneervaardigheden en niche-domeinexpertise over te dragen.
Microsoft noemt deze benadering de “data-optimal regime”, een afwijking van de traditionele “compute-optimal regime” of “over-training regime” die door veel grote taalmodellen wordt gebruikt. Het doel is om de trainingsgegevens af te stemmen op de schaal van het model, zodat het juiste niveau van kennis en redeneervaardigheid wordt geboden, terwijl voldoende capaciteit overblijft voor andere mogelijkheden.

- Kwaliteit van de nieuwe Phi-3-modellen, gemeten door prestaties op de Massive Multitask Language Understanding (MMLU) benchmark
Deze data-gedreven benadering heeft zijn vruchten afgeworpen, aangezien Phi-3 Mini opmerkelijke prestaties levert op een breed scala aan academische benchmarks, vaak rivaliserend of overtreffend veel grotere modellen. Zo scoort het 69% op de MMLU-benchmark voor multi-task leren en begrijpen, en 8,38 op de MT-bench voor wiskundige redenering – resultaten die gelijk zijn aan modellen zoals Mixtral 8x7B en GPT-3.5.
Veiligheid en robuustheid
Naast zijn indrukwekkende prestaties heeft Microsoft een sterke nadruk gelegd op veiligheid en robuustheid bij de ontwikkeling van Phi-3 Mini. Het model is onderworpen aan een grondige post-trainingproces met behulp van begeleide fine-tuning (SFT) en directe voorkeursoptimalisatie (DPO).
De SFT-fase maakt gebruik van zeer zorgvuldig geselecteerde gegevens uit diverse domeinen, waaronder wiskunde, codering, redenering, conversatie, modelidentiteit en veiligheid. Dit helpt om de mogelijkheden van het model in deze gebieden te versterken, terwijl het een sterk gevoel van identiteit en ethisch gedrag inprent.
De DPO-fase richt zich daarentegen op het afleiden van het model van ongewenst gedrag door afgewezen antwoorden te gebruiken als negatieve voorbeelden. Dit proces omvat chatformatgegevens, redeneertaken en inspanningen voor verantwoordelijke AI (RAI), waardoor Phi-3 Mini voldoet aan Microsofts principes van ethische en betrouwbare AI.
Om zijn veiligheidsprofiel verder te verbeteren, is Phi-3 Mini onderworpen aan uitgebreide red teaming en geautomatiseerde tests in tientallen RAI-schadecategorieën. Een onafhankelijk red team van Microsoft heeft het model iteratief onderzocht, verbeteringsgebieden geïdentificeerd, die vervolgens werden aangepakt met behulp van aanvullende gecureerde datasets en opnieuw trainen.
Deze veelzijdige benadering heeft het aantal schadelijke antwoorden, feitelijke onnauwkeurigheden en vooroordelen aanzienlijk verlaagd, zoals aangetoond door Microsofts interne RAI-benchmarks. Zo vertoont het model lage defecten voor schadelijke inhoudsvoortzetting (0,75%) en samenvatting (10%), evenals een lage ongegrondeheid (0,603), wat aangeeft dat de antwoorden stevig geworteld zijn in de gegeven context.
Toepassingen en use cases
Met zijn indrukwekkende prestaties en robuuste veiligheidsmaatregelen is Phi-3 Mini zeer geschikt voor een breed scala aan toepassingen, met name in omgevingen met beperkte middelen en latency-gebonden scenario’s.
Een van de meest veelbelovende vooruitzichten is de implementatie van intelligente virtuele assistenten en conversational AI rechtstreeks op mobiele apparaten. Door lokaal te draaien, kunnen deze assistenten onmiddellijke antwoorden geven zonder dat een netwerkverbinding nodig is, terwijl ze ook ervoor zorgen dat gevoelige gegevens op het apparaat blijven, waardoor privacyproblemen worden aangepakt.
De sterke redeneervaardigheden van Phi-3 Mini maken het ook een waardevolle aanwinst voor coderingshulp en wiskundige probleemoplossing. Ontwikkelaars en studenten kunnen profiteren van on-device code-completie, bugdetectie en uitleg, waardoor de ontwikkelings- en leerprocessen worden gestroomlijnd.
Verder dan deze toepassingen biedt de veelzijdigheid van het model kansen in gebieden zoals taalbegrip, tekstsamenvatting en vraagbeantwoording. De kleine omvang en efficiëntie maken het een aantrekkelijke keuze voor het integreren van AI-mogelijkheden in een breed scala aan apparaten en systemen, van slimme huishoudelijke apparaten tot industriële automatiseringssystemen.
Terugkijken: Phi-3 Small en Phi-3 Medium
Terwijl Phi-3 Mini een opmerkelijke prestatie is op zichzelf, heeft Microsoft nog grotere plannen voor de Phi-3-familie. Het bedrijf heeft al twee grotere modellen gepresenteerd, Phi-3 Small (7 miljard parameters) en Phi-3 Medium (14 miljard parameters), die beide de grenzen van de prestaties van compacte taalmodellen zullen verleggen.
Phi-3 Small maakt bijvoorbeeld gebruik van een geavanceerdere tokenizer (tiktoken) en een gegroepeerde query-aandachtmethode, evenals een novum blocksparse aandachtlagen, om de geheugenvoetafdruk te optimaliseren terwijl de prestaties van lange contextopname worden behouden. Het omvat ook 10% meer multiculturele gegevens, waardoor de mogelijkheden van het model in taalbegrip en generatie in meerdere talen worden verbeterd.
Phi-3 Medium vertegenwoordigt een aanzienlijke stap in schaal, met 40 lagen, 40 aandachtshoofden en een embeddingdimensie van 5.120. Hoewel Microsoft opmerkt dat sommige benchmarks mogelijk verdere verfijning van de trainingsgegevensmix vereisen om het volledige potentieel van deze verhoogde capaciteit te benutten, zijn de initiële resultaten veelbelovend, met aanzienlijke verbeteringen ten opzichte van Phi-3 Small op taken zoals MMLU, TriviaQA en HumanEval.
Beperkingen en toekomstige richtingen
Ondanks zijn indrukwekkende mogelijkheden is Phi-3 Mini, net als alle taalmodellen, niet zonder zijn beperkingen. Een van de meest opvallende zwakheden is de relatief beperkte capaciteit voor het opslaan van feitelijke kennis, zoals blijkt uit zijn lagere prestaties op benchmarks zoals TriviaQA.
Microsoft gelooft echter dat deze beperking kan worden gemilderd door het model aan te vullen met zoekmachinefunctionaliteit, waardoor het relevante informatie kan ophalen en redeneren over vraag. Deze benadering wordt gedemonstreerd in de Hugging Face Chat-UI, waar Phi-3 Mini zoekopdrachten kan gebruiken om zijn antwoorden te verbeteren.
Een ander gebied voor verbetering is de multiculturele mogelijkheden van het model. Hoewel Phi-3 Small een eerste stap heeft gezet door meer multiculturele gegevens op te nemen, is verdere werk nodig om het volledige potentieel van deze compacte modellen voor cross-linguale toepassingen te ontsluiten.
Microsoft is toegewijd om de Phi-familie van modellen voortdurend te verbeteren, hun beperkingen aan te pakken en hun mogelijkheden uit te breiden. Dit kan verdere verfijning van de trainingsgegevens en -methodologie omvatten, evenals het onderzoeken van nieuwe architectuur en technieken die specifiek zijn ontworpen voor compacte, hoge-prestatie taalmodellen.
Conclusie
Microsofts Phi-3 Mini vertegenwoordigt een belangrijke stap voorwaarts in de democratisering van geavanceerde AI-mogelijkheden. Door state-of-the-art prestaties te leveren in een compact, efficiënt pakket, opent het nieuwe mogelijkheden voor intelligente on-device-ervaringen in een breed scala aan toepassingen.
De innovatieve trainingsaanpak van het model, die een hoogwaardige, redeneringsdichte dataset prioriteert boven brute rekenkracht, heeft zich bewezen als een game-changer, waardoor Phi-3 Mini boven zijn gewichtsklasse uitstijgt. In combinatie met zijn robuuste veiligheidsmaatregelen en voortdurende ontwikkelingsinspanningen is de Phi-3-familie van modellen goed gepositioneerd om een cruciale rol te spelen in het vormgeven van de toekomst van intelligente systemen, waardoor AI meer toegankelijk, efficiënt en betrouwbaar wordt dan ooit tevoren.
Terwijl de technologie-industrie de grenzen van wat mogelijk is met AI blijft verleggen, vertegenwoordigt Microsofts toewijding aan lichtgewicht, hoge-prestatie modellen zoals Phi-3 Mini een verfrissende afwijking van de conventionele wijsheid dat “groter beter is”. Door te demonstreren dat grootte niet alles is, heeft Phi-3 Mini het potentieel om een nieuwe golf van innovatie te inspireren die zich richt op het maximaliseren van de waarde en impact van AI door intelligente datacuratie, zorgvuldige modelontwerp en verantwoorde ontwikkelingspraktijken.












