Connect with us

Zakformaat Krachtcentrale: Microsoft’s Phi-3 Onthullen, het Taalmodel dat in uw Telefoon Past

Kunstmatige intelligentie

Zakformaat Krachtcentrale: Microsoft’s Phi-3 Onthullen, het Taalmodel dat in uw Telefoon Past

mm

In het snel evoluerende veld van kunstmatige intelligentie, waar de trend vaak naar grotere en complexere modellen neigt, kiest Microsoft een andere aanpak met zijn Phi-3 Mini. Dit kleine taalmodel (SLM), nu in zijn derde generatie, combineert de robuuste mogelijkheden van grotere modellen in een kader dat past binnen de strikte resourcebeperkingen van smartphones. Met 3,8 miljard parameters komt de Phi-3 Mini qua prestaties overeen met grote taalmodellen (LLM’s) bij verschillende taken, waaronder taalverwerking, redeneren, coderen en wiskunde, en is het ontworpen voor efficiënte werking op mobiele apparaten door middel van quantisatie.

Uitdagingen van Grote Taalmodellen

De ontwikkeling van Microsoft’s Phi SLM’s is een reactie op de aanzienlijke uitdagingen die door LLM’s worden gesteld, die meer rekenkracht vereisen dan typisch beschikbaar is op consumentenapparaten. Deze hoge vraag compliceert hun gebruik op standaardcomputers en mobiele apparaten, verhoogt milieubezorgdheden vanwege hun energieverbruik tijdens training en bedrijf, en riskeert het in stand houden van vooroordelen met hun grote en complexe trainingsdatasets. Deze factoren kunnen ook de responsiviteit van de modellen in real-time-toepassingen schaden en updates moeilijker maken.

Phi-3 Mini: AI op Persoonlijke Apparaten Stroomlijnen voor Verbeterde Privacy en Efficiëntie

De Phi-3 Mini is strategisch ontworpen om een kosteneffectief en efficiënt alternatief te bieden voor het integreren van geavanceerde AI rechtstreeks op persoonlijke apparaten zoals telefoons en laptops. Dit ontwerp faciliteert snellere, directere antwoorden, waardoor de interactie van de gebruiker met technologie in dagelijkse scenario’s wordt verbeterd.

Phi-3 Mini maakt het mogelijk om geavanceerde AI-functionaliteiten rechtstreeks op mobiele apparaten te verwerken, waardoor de afhankelijkheid van clouddiensten wordt verminderd en real-time gegevensverwerking wordt verbeterd. Deze mogelijkheid is van cruciaal belang voor toepassingen die onmiddellijke gegevensverwerking vereisen, zoals mobiele gezondheidszorg, real-time taalvertaling en persoonlijk onderwijs, waardoor vooruitgang in deze gebieden wordt gefaciliteerd. De kostenefficiëntie van het model vermindert niet alleen de operationele kosten, maar vergroot ook het potentieel voor AI-integratie in verschillende industrieën, waaronder opkomende markten zoals draagbare technologie en home-automatisering. Phi-3 Mini maakt gegevensverwerking mogelijk op lokale apparaten, waardoor de gebruiksprivacy wordt verbeterd. Dit kan essentieel zijn voor het beheren van gevoelige informatie in gebieden zoals persoonlijke gezondheid en financiële diensten. Bovendien dragen de lage energievragen van het model bij aan milieuvriendelijke AI-bewerkingen, waardoor ze in overeenstemming zijn met wereldwijde duurzaamheidsinspanningen.

Ontwerpfilosofie en Evolutie van Phi

Phi’s ontwerpfilosofie is gebaseerd op het concept van curriculum learning, dat inspiratie put uit de educatieve aanpak waarbij kinderen leren door middel van progressief moeilijkere voorbeelden. Het hoofdidee is om de training van AI te starten met eenvoudige voorbeelden en de complexiteit van de trainingsdata geleidelijk te verhogen naarmate het leerproces vordert. Microsoft heeft deze educatieve strategie geïmplementeerd door een dataset te bouwen uit leerboeken, zoals beschreven in hun onderzoek “Textbooks Are All You Need.” De Phi-reeks werd gelanceerd in juni 2023, beginnend met Phi-1, een compact model met 1,3 miljard parameters. Dit model toonde snel zijn effectiviteit, met name bij Python-codetaak, waarin het grotere, complexere modellen overtrof. Op basis van dit succes ontwikkelde Microsoft later Phi-1.5, dat hetzelfde aantal parameters behield, maar zijn mogelijkheden verbreedde in gebieden zoals gezond verstand redeneren en taalbegrip. De reeks blonk uit met de release van Phi-2 in december 2023. Met 2,7 miljard parameters toonde Phi-2 indrukwekkende vaardigheden in redeneren en taalbegrip, waardoor het een sterke concurrent werd tegenover aanzienlijk grotere modellen.

Phi-3 vs. Andere Kleine Taalmodellen

Door voort te bouwen op zijn voorgangers, breidt Phi-3 Mini de vooruitgang van Phi-2 uit door andere SLM’s te overtreffen, zoals Google’s Gemma, Mistral’s Mistral, Meta’s Llama3-Instruct, en GPT 3.5, in een verscheidenheid aan industriële toepassingen. Deze toepassingen omvatten taalbegrip en inferentie, algemene kennis, gezond verstand redeneren, wiskundeproblemen voor de basisschool en medische vraagbeantwoording, en tonen een superieure prestatie ten opzichte van deze modellen. De Phi-3 Mini is ook getest op een iPhone 14 voor verschillende taken, waaronder inhoudscreatie en het bieden van activiteitssuggesties aangepast aan specifieke locaties. Hiervoor is Phi-3 Mini gecomprimeerd tot 1,8 GB met behulp van een proces genaamd quantisatie, dat het model optimaliseert voor apparaten met beperkte middelen door de numerieke gegevens van het model om te zetten van 32-bits drijvende komma-getallen naar compactere formaten zoals 4-bits gehele getallen. Dit vermindert niet alleen de geheugenvoetafdruk van het model, maar verbetert ook de verwerkingssnelheid en energoefficiëntie, wat essentieel is voor mobiele apparaten. Ontwikkelaars gebruiken typisch frameworks zoals TensorFlow Lite of PyTorch Mobile, die ingebouwde quantisatiehulpmiddelen bevatten om dit proces te automatiseren en te verfijnen.

Functievergelijking: Phi-3 Mini vs. Phi-2 Mini

Hieronder vergelijken we enkele functies van Phi-3 met zijn voorganger Phi-2.

  • Modelarchitectuur: Phi-2 werkt op een transformer-gebaseerde architectuur ontworpen om het volgende woord te voorspellen. Phi-3 Mini maakt ook gebruik van een transformer-decoderarchitectuur, maar komt meer overeen met de Llama-2-modelstructuur, met hetzelfde tokenizer met een woordenschatgrootte van 320.641. Deze compatibiliteit zorgt ervoor dat tools ontwikkeld voor Llama-2 gemakkelijk kunnen worden aangepast voor gebruik met Phi-3 Mini.
  • Contextlengte: Phi-3 Mini ondersteunt een contextlengte van 8.000 tokens, wat aanzienlijk groter is dan de 2.048 tokens van Phi-2. Deze toename stelt Phi-3 Mini in staat om gedetailleerdere interacties te beheren en langere stukken tekst te verwerken.
  • Lokale uitvoering op mobiele apparaten: Phi-3 Mini kan worden gecomprimeerd tot 4-bits, waardoor het ongeveer 1,8 GB aan geheugen in beslag neemt, net als Phi-2. Het werd getest op een iPhone 14 met een A16 Bionic-chip, waar het een verwerkingssnelheid van meer dan 12 tokens per seconde bereikte, wat overeenkomt met de prestaties van Phi-2 onder vergelijkbare omstandigheden.
  • Modelgrootte: Met 3,8 miljard parameters heeft Phi-3 Mini een grotere omvang dan Phi-2, dat 2,7 miljard parameters heeft. Dit weerspiegelt zijn verbeterde mogelijkheden.
  • Trainingsgegevens: In tegenstelling tot Phi-2, dat werd getraind op 1,4 biljoen tokens, is Phi-3 Mini getraind op een veel grotere verzameling van 3,3 biljoen tokens, waardoor het een beter begrip van complexe taalpatronen kan bereiken.

Beperkingen van Phi-3 Mini aanpakken

Hoewel Phi-3 Mini aanzienlijke vooruitgang toont in het domein van kleine taalmodellen, is het niet zonder zijn beperkingen. Een primaire beperking van Phi-3 Mini, gezien zijn kleinere omvang in vergelijking met enorme taalmodellen, is zijn beperkte capaciteit om uitgebreide feitelijke kennis op te slaan. Dit kan zijn vermogen beïnvloeden om onafhankelijk om te gaan met vragen die een diepte van specifieke feitelijke gegevens of gedetailleerde expertkennis vereisen. Dit kan echter worden gemilderd door Phi-3 Mini te integreren met een zoekmachine. Op deze manier kan het model toegang krijgen tot een bredere reeks informatie in real-time, waardoor het effectief kan compenseren voor zijn inherente kennisbeperkingen. Deze integratie stelt Phi-3 Mini in staat om te functioneren als een zeer capabele conversationalist die, ondanks een uitgebreid begrip van taal en context, af en toe “informatie moet opzoeken” om accurate en up-to-date antwoorden te geven.

Beschikbaarheid

Phi-3 is nu beschikbaar op verschillende platforms, waaronder Microsoft Azure AI Studio, Hugging Face, en Ollama. Op Azure AI omvat het model een deploy-evaluate-finetune-werkstroom, en op Ollama kan het lokaal worden uitgevoerd op laptops. Het model is aangepast voor ONNX Runtime en ondersteunt Windows DirectML, waardoor het goed werkt op verschillende hardwaretypen, zoals GPU’s, CPU’s en mobiele apparaten. Bovendien wordt Phi-3 aangeboden als microservice via NVIDIA NIM, uitgerust met een standaard-API voor eenvoudige implementatie in verschillende omgevingen en geoptimaliseerd voor NVIDIA-GPU’s. Microsoft plant om de Phi-3-reeks in de nabije toekomst verder uit te breiden door de Phi-3-small (7B) en Phi-3-medium (14B) modellen toe te voegen, waardoor gebruikers extra keuzes krijgen om kwaliteit en kosten in balans te brengen.

De Bottom Line

Microsoft’s Phi-3 Mini maakt aanzienlijke vooruitgang in het veld van kunstmatige intelligentie door de kracht van grote taalmodellen aan te passen voor mobiel gebruik. Dit model verbetert de interactie van de gebruiker met apparaten door snellere, real-time verwerking en verbeterde privacyfuncties. Het minimaliseert de noodzaak voor clouddiensten, vermindert operationele kosten en vergroot het bereik voor AI-toepassingen in gebieden zoals gezondheidszorg en home-automatisering. Met een focus op het verminderen van vooroordelen door middel van curriculum learning en het behouden van concurrerende prestaties, evolueert Phi-3 Mini naar een belangrijk instrument voor efficiënte en duurzame mobiele AI, waardoor het subtiel de manier verandert waarop we dagelijks met technologie omgaan.

Dr. Tehseen Zia is een gewaardeerd associate professor aan de COMSATS University Islamabad, met een PhD in AI van de Vienna University of Technology, Oostenrijk. Hij specialiseert zich in Artificial Intelligence, Machine Learning, Data Science en Computer Vision, en heeft significante bijdragen geleverd met publicaties in gerenommeerde wetenschappelijke tijdschriften. Dr. Tehseen heeft ook verschillende industriële projecten geleid als hoofdonderzoeker en heeft gediend als AI-consultant.