Kunstig intelligens
Microsoft lanserer Phi-3: Kraftige åpne AI-modeller som leverer topp ytelse i små størrelser
Microsoft har introdusert Phi-3, en ny familie av små språkmodeller (SLM) som har som mål å levere høy ytelse og kostnadseffektivitet i AI-applikasjoner. Disse modellene har vist sterke resultater på tvers av benchmarks innen språkforståelse, resonnement, koding og matematikk sammenlignet med modeller av lignende og større størrelser. Utgivelsen av Phi-3 utvider alternativene som er tilgjengelige for utviklere og bedrifter som ønsker å utnytte AI samtidig som effektivitet og kostnader balanseres.
Phi-3 modellfamilie og tilgjengelighet
Den første modellen i Phi-3-serien er Phi-3-mini, en 3.8B parametermodell nå tilgjengelig på Azure AI Studio, Klemme ansiktetog Ollama. Phi-3-mini kommer instruksjonsinnstilt, slik at den kan brukes "out-of-the-box" uten omfattende finjustering. Den har et kontekstvindu på opptil 128K tokens, den lengste i sin størrelsesklasse, som muliggjør behandling av større tekstinndata uten å ofre ytelsen.
For å optimalisere ytelsen på tvers av maskinvareoppsett har Phi-3-mini blitt finjustert for ONNX Runtime og NVIDIA GPUer. Microsoft planlegger å utvide Phi-3-familien snart med utgivelsen av Phi-3-small (7B parametere) og Phi-3-medium (14B parametere). Disse tilleggsmodellene vil gi et bredere utvalg av alternativer for å møte ulike behov og budsjetter.
Phi-3 ytelse og utvikling
Microsoft rapporterer at Phi-3-modellene har vist betydelige ytelsesforbedringer i forhold til modeller av samme størrelse og enda større modeller på tvers av ulike benchmarks. Ifølge selskapet har Phi-3-mini utkonkurrert modeller som er dobbelt så store når det gjelder språkforståelse og generasjonsoppgaver, mens Phi-3-small og Phi-3-medium har overgått mye større modeller, som GPT-3.5T, på visse punkter. evalueringer.
Microsoft opplyser at utviklingen av Phi-3-modellene har fulgt selskapets Ansvarlig AI-prinsipper og standarder, som legger vekt på ansvarlighet, åpenhet, rettferdighet, pålitelighet, sikkerhet, personvern, sikkerhet og inkludering. Modellene har angivelig gjennomgått sikkerhetsopplæring, evalueringer og red-teaming for å sikre overholdelse av ansvarlig AI-distribusjonspraksis.
Potensielle applikasjoner og muligheter til Phi-3
Phi-3-familien er designet for å utmerke seg i scenarier der ressursene er begrenset, lav ventetid er avgjørende, eller kostnadseffektivitet er en prioritet. Disse modellene har potensial til å muliggjøre inferens på enheten, slik at AI-drevne applikasjoner kan kjøres effektivt på et bredt spekter av enheter, inkludert de med begrenset datakraft. Den mindre størrelsen på Phi-3-modeller kan også gjøre finjustering og tilpasning rimeligere for bedrifter, slik at de kan tilpasse modellene til deres spesifikke brukstilfeller uten å pådra seg høye kostnader.
I applikasjoner der raske responstider er kritiske, tilbyr Phi-3-modeller en lovende løsning. Deres optimaliserte arkitektur og effektive prosessering kan muliggjøre rask generering av resultater, forbedre brukeropplevelser og åpne opp muligheter for sanntids AI-interaksjoner. I tillegg gjør Phi-3-minis sterke resonnement og logiske evner den godt egnet for analytiske oppgaver, for eksempel dataanalyse og generering av innsikt.