Kunstig intelligens
Microsoft presenterer Phi-3: Kraftfulle åpne AI-modeller som leverer topp ytelse i små størrelser

Microsoft har introdusert Phi-3, en ny familie av små språkmodeller (SLMs) som har som mål å levere høy ytelse og kostnadseffektivitet i AI-applikasjoner. Disse modellene har vist sterke resultater på tvers av benchmark i språkforståelse, resonnering, kode og matematikk sammenlignet med modeller av samme og større størrelse. Utgivelsen av Phi-3 utvider valgmulighetene for utviklere og bedrifter som ønsker å utnytte AI samtidig som de balanserer effektivitet og kostnader.
Phi-3-modellfamilie og tilgjengelighet
Den første modellen i Phi-3-serien er Phi-3-mini, en 3,8 milliarder parametermodell som nå er tilgjengelig på Azure AI Studio, Hugging Face og Ollama. Phi-3-mini kommer instruksjonsjustert, noe som gjør det mulig å bruke den “utenfor boksen” uten omfattende finjustering. Den har en kontekstvindu på opp til 128K token, den lengste i sin størrelsesklasse, og muliggjør prosessering av større tekstinput uten å ofre ytelse.
For å optimalisere ytelse på tvers av hårdvarusettinger, er Phi-3-mini finjustert for ONNX Runtime og NVIDIA-GPU-er. Microsoft planlegger å utvide Phi-3-familien snart med utgivelsen av Phi-3-small (7 milliarder parametre) og Phi-3-medium (14 milliarder parametre). Disse ekstra modellene vil gi en bredere rekke valgmuligheter for å møte diverse behov og budsjetter.

Bilde: Microsoft
Phi-3-ytelse og utvikling
Microsoft rapporterer at Phi-3-modellene har demonstrert betydelige forbedringer i ytelse sammenlignet med modeller av samme størrelse og enda større modeller på tvers av ulike benchmark. Ifølge selskapet har Phi-3-mini overgått modeller som er dobbelt så store som den selv i språkforståelse og generering, mens Phi-3-small og Phi-3-medium har overgått mye større modeller, som GPT-3,5T, i visse evalueringer.
Microsoft opplyser at utviklingen av Phi-3-modellene har fulgt selskapets prinsipper og standarder for ansvarlig AI, som betoner ansvar, transparens, rettferdighet, pålitelighet, sikkerhet, personvernbeskyttelse og inklusivitet. Modellene har angivelig gjennomgått sikkerhetstrenings-, evalueringer og red teaming for å sikre overholdelse av ansvarlige AI-utviklingspraksiser.

Bilde: Microsoft
Potensielle anvendelser og muligheter for Phi-3
Phi-3-familien er designet for å utmerke seg i situasjoner der ressurser er begrensede, lav latency er essensiell eller kostnadseffektivitet er en prioritet. Disse modellene har potensialet til å muliggjøre på-enhet-inferens, noe som gjør det mulig for AI-drevne applikasjoner å kjøre effektivt på en rekke enheter, inkludert de med begrensede beregningsressurser. Den mindre størrelsen på Phi-3-modellene kan også gjøre finjustering og tilpasning mer rimelig for bedrifter, og muliggjøre at de kan tilpasse modellene til sine spesifikke bruksområder uten å pådra seg høye kostnader.
I applikasjoner der rask respons er kritisk, tilbyr Phi-3-modellene et løftende løsning. Deres optimerte arkitektur og effektiv prosessering kan muliggjøre rask generering av resultater, og forbedre brukeropplevelsen samt åpne opp muligheter for sanntids AI-interaksjoner. I tillegg er Phi-3-minis sterke resonnerings- og logiske evner godt egnet for analytiske oppgaver, som dataanalyse og innsiktsgenerering.
