Connect with us

Taskukokoinen Tehokone: Esittelyssä Microsoftin Phi-3, Kielimalli joka Mahtuu Puhelimeen

Tekoäly

Taskukokoinen Tehokone: Esittelyssä Microsoftin Phi-3, Kielimalli joka Mahtuu Puhelimeen

mm

Nopeasti kehittyvässä tekoälyalalla, jossa suuntaus on usein ollut suurempien ja monimutkaisempien mallien suuntaan, Microsoft on omaksunut toisenlainen lähestymistapan itsensä Phi-3 Mini -mallissa. Tämä pieni kielimalli (SLM), joka on nyt kolmannessa sukupolvessaan, pakkaa suurempien mallien vahvat ominaisuudet kehykseen, joka mahtuu älypuhelinten tiukkojen resurssirajoitusten sisään. 3,8 miljardilla parametrillä Phi-3 Mini vastaa suurten kielimallien (LLM) suorituskykyä eri tehtävissä, kuten kieliprosessoinnissa, päättelyssä, koodauksessa ja matematiikassa, ja on suunniteltu tehokkaaseen toimintaan mobiililaitteilla kvantisoinnin kautta.

Suurempien KieliMallien Haasteet

Microsoftin Phi SLM -mallien kehitys on vastaus suurempien kielimallien asettamiin merkittäviin haasteisiin, jotka vaativat enemmän laskentatehoa kuin mitä kuluttajalaitteissa yleensä on saatavilla. Tämä suuri vaatimus monimutkistaa niiden käyttöä standarditietokoneilla ja mobiililaitteilla, aiheuttaa ympäristöhuolia niiden energiankulutuksen vuoksi koulutuksen ja toiminnan aikana, ja riskeeraa vahvistaa niiden suuria ja monimutkaisia koulutusaineistoja. Nämä tekijät voivat myös heikentää mallien vastauskykyä reaaliaikaisissa sovelluksissa ja tehdä päivitykset haasteellisemmiksi.

Phi-3 Mini: Sujuvoittaa Tekoälyä Henkilökohtaisilla Laitteilla Parantamalla Yksityisyyttä ja Tehokkuutta

Phi-3 Mini on suunniteltu tarjoamaan kustannustehokkaan ja tehokkaan vaihtoehdon edistyneen tekoälyn integroimiseksi suoraan henkilökohtaisiin laitteisiin, kuten puhelimiin ja kannettaviin tietokoneisiin. Tämä suunnittelu mahdollistaa nopeammat ja välittömämmät vastaukset, parantaa käyttäjän vuorovaikutusta teknologian kanssa arkisissa tilanteissa.
Phi-3 Mini mahdollistaa monimutkaiset tekoälyominaisuudet suoraan mobiililaitteilla, mikä vähentää riippuvuutta pilvipalveluista ja parantaa reaaliaikaisen tietokäsittelyn. Tämä ominaisuus on ratkaiseva sovelluksissa, jotka vaativat välitöntä tietokäsittelyä, kuten mobiilihoito, reaaliaikainen kielentulkkaus ja henkilökohtainen koulutus, ja edistää näiden alojen kehitystä. Mallin kustannustehokkuus ei ainoastaan vähennä toimintakuluja vaan laajentaa myös tekoälyn soveltamismahdollisuuksia eri aloilla, mukaan lukien nousussa olevat markkinat kuten wearable-tekniikka ja kotiautomaatio. Phi-3 Mini mahdollistaa tietokäsittelyn suoraan paikallisilla laitteilla, mikä vahvistaa käyttäjän yksityisyyttä. Tämä voi olla olennaista herkkien tietojen hallinnassa, kuten henkilökohtaisessa terveydenhuollossa ja rahoituspalveluissa. Lisäksi mallin alhaiset energiavaatimukset edistävät ympäristöystävällistä tekoälytoimintaa, joka on linjassa maailmanlaajuisen kestävän kehityksen pyrkimyksien kanssa.

Suunnittelufilosofia ja Phi-Sarjan Kehitys

Phi-mallien suunnittelufilosofia perustuu curriculum learning -käsitteeseen, joka ammentaa vaikutteita koulutuslähestymistavasta, jossa lapset oppivat edistymällä vaikeampiin esimerkkeihin. Pääidea on aloittaa tekoälyn koulutus helpoimmista esimerkeistä ja vähitellen lisätä koulutusaineiston monimutkaisuutta oppimisprosessin edetessä. Microsoft on toteuttanut tämän opetusstrategian rakentamalla aineiston oppikirjoista, kuten heidän tutkimuksessaan “Textbooks Are All You Need” kuvataan. Phi-sarja esiteltiin kesäkuussa 2023, aloittaen Phi-1:llä, joka on compact-malli, jossa on 1,3 miljardia parametrejä. Tämä malli osoitti nopeasti tehokkuutensa, erityisesti Python-koodauksessa, jossa se ylitti suurempia ja monimutkaisempia malleja. Tästä menestyksestä rakentuen Microsoft kehitti myöhemmin Phi-1.5:n, joka säilyi samalla määrällä parametrejä mutta laajensi kykyjään alueilla kuten yleinen viisaus ja kielentaju. Sarja erottui joulukuussa 2023 julkaistun Phi-2:n myötä. 2,7 miljardilla parametrillä Phi-2 esitti vaikuttavia taitoja päättelyssä ja kielentajussa, asettamalla itsensä vahvaksi kilpailijaksi merkittävästi suurempien mallien rinnalla.

Phi-3 vs. Muut Pienet KieliMallit

Laajentamalla edeltäjiensä saavutuksia, Phi-3 Mini jatkaa Phi-2:n edistystä ylittämällä muita pieniä kielimalleja, kuten Google’s Gemma, Mistral’s Mistral, Meta’s Llama3-Instruct, ja GPT 3.5, useissa teollisuuden sovelluksissa. Nämä sovellukset käsittävät kielentajun ja johtopäätöksen, yleistiedon, yleisen viisauden, perusopetuksen matemaattiset sanalliset ongelmanratkaisut ja lääketieteellisen kysymyksen vastaamisen, osoittaen ylivoimaisen suorituskyvyn näihin malleihin verrattuna. Phi-3 Mini on myös käynyt läpi offline-testin iPhone 14:llä eri tehtävissä, kuten sisällön luomisessa ja toimintaehdotuksissa, jotka on räätälöity tiettyihin sijainteihin. Tätä tarkoitusta varten Phi-3 Mini on tiivistetty 1,8GB:ksi kvantisointiprosessin avulla, joka optimoi mallin resurssien rajoitettujen laitteiden tarpeisiin muuttamalla mallin numeeriset tiedot 32-bittisistä liukuluvuista tiiviimpiin muotoihin, kuten 4-bittisiin kokonaislukuja. Tämä vähentää mallin muistijäljennöstä ja parantaa prosessointinopeutta ja virrankäyttöä, mikä on olennaista mobiililaitteille. Kehittäjät käyttävät yleensä kehyksiä, kuten TensorFlow Lite tai PyTorch Mobile, jotka sisältävät sisäänrakennetut kvantisointityökalut automatisoida ja hienostaa tämän prosessin.

Ominaisuusvertailu: Phi-3 Mini vs. Phi-2 Mini

Alla vertaillaan joitakin Phi-3:n ja sen edeltäjän Phi-2:n ominaisuuksia.

  • Mallirakenne: Phi-2 toimii transformer-pohjaisella arkkitehtuurilla, joka on suunniteltu ennustamaan seuraava sana. Phi-3 Mini käyttää myös transformer-dekooderirakennetta, mutta se on lähempänä Llama-2 -mallin rakennetta, käyttäen samaa tokenaattoria, jonka sanastokoko on 320 641. Tämä yhteensopivuus takaa, että Llama-2:lle kehitetyt työkalut voidaan helposti sovittaa Phi-3 Miniin.
  • Viitekehyksen Pituus: Phi-3 Mini tukee 8 000 tokenin viitekehyksen pituutta, mikä on huomattavasti suurempi kuin Phi-2:n 2 048 tokenia. Tämä kasvu mahdollistaa Phi-3 Minille hallitsemisen yksityiskohtaisempia vuorovaikutuksia ja pidempiä tekstijaksoja.
  • Suorittaminen Paikallisesti Mobiililaitteilla: Phi-3 Mini voidaan pakata 4-bittiseen muotoon, joka vie noin 1,8GB muistia, samoin kuin Phi-2. Se testattiin toimivaksi offline-tilassa iPhone 14:llä, jossa se saavutti yli 12 tokenin prosessointinopeuden sekunnissa, vastaavan Phi-2:n suorituskyvyn samanlaisissa olosuhteissa.
  • Mallin Koko: 3,8 miljardilla parametrillä Phi-3 Mini on suurempi kuin Phi-2, jolla on 2,7 miljardia parametrejä. Tämä heijastaa sen lisääntynyttä kykyä.
  • Koulutusaineisto: Toisin kuin Phi-2, joka koulutettiin 1,4 biljoonalla tokenilla, Phi-3 Mini on koulutettu paljon suuremmalla aineistolla, 3,3 biljoonalla tokenilla, mikä mahdollistaa sen saavuttaa paremman ymmärryksen monimutkaisista kielimalleista.

Phi-3 Minin Rajoitusten Käsittely

Vaikka Phi-3 Mini osoittaa merkittäviä edistysaskelia pienissä kielimalleissa, se ei ole ilman rajoituksia. Yksi Phi-3 Minin tärkeimmistä rajoituksista, sen pienemmän koosta johtuen verrattuna massiivisiin kielimalleihin, on sen rajoitettu kyky tallentaa laajaa faktatietoa. Tämä voi vaikuttaa sen kykyyn käsitellä itsenäisesti kysymyksiä, jotka vaativat syvää tietämysalueiden tai yksityiskohtaisen asiantuntijatiedon hallintaa. Tämä voidaan kuitenkin lieventää integroimalla Phi-3 Mini hakukoneen kanssa. Tällöin malli voi käyttää laajempaa tietojen joukkoa reaaliajassa, kompensoiden siten sen sisäiset tietorajoitukset. Tämä integraatio mahdollistaa Phi-3 Minin toimimisen erittäin kykenevänä keskustelijana, joka vaikka hallitsee kielen ja kontekstin, saattaa toisinaan tarvita “tarkistaa” tietoja antaakseen tarkat ja ajantasaiset vastaukset.

Saatavuus

Phi-3 on nyt saatavilla useilla alustoilla, kuten Microsoft Azure AI Studio, Hugging Face ja Ollama. Azure AI:ssa malli sisältää deploy-evaluate-finetune-työnkulun, ja Ollamassa se voidaan suorittaa paikallisesti kannettavilla tietokoneilla. Malli on suunniteltu ONNX Runtime:lle ja tukee Windows DirectML:ää, varmistaen sen toimivuuden eri laitteistotyypeillä, kuten GPU:illa, CPU:illa ja mobiililaitteilla. Lisäksi Phi-3 on tarjolla mikropalveluna NVIDIA NIM:n kautta, varustettuna standardilla API:lla helposta käyttöönotosta eri ympäristöissä ja optimoidulla suorituskyvylle NVIDIA:n GPU:ille. Microsoft aikoo laajentaa Phi-3 -sarjaa lähitulevaisuudessa lisäämällä Phi-3-small (7B) ja Phi-3-medium (14B) -malleja, tarjoten käyttäjille lisää valinnanvaraa laadun ja kustannuksen tasapainottamiseksi.

Pääpointti

Microsoftin Phi-3 Mini tekee merkittäviä askelia tekoälyalalla sovittamalla suurten kielimallien voiman mobiilikäyttöön. Tämä malli parantaa käyttäjän vuorovaikutusta laitteiden kanssa nopeamman ja reaaliaikaisen prosessoinnin sekä parannetun yksityisyyden kautta. Se vähentää tarvetta pilvipohjaisille palveluille, laskee toimintakuluja ja laajentaa tekoälyn soveltamismahdollisuuksia aloilla, kuten terveydenhuollossa ja kotiautomaatiossa. Keskittyessään vähentämään harhaa curriculum learningin kautta ja ylläpitäessään kilpailukykyistä suorituskykyä, Phi-3 Mini kehittyy tärkeäksi työkaluksi tehokkaaseen ja kestävään mobiilitekoälyyn, muokkaillen hienovaraisesti, miten vuorovaikutamme teknologian kanssa päivittäin.

Tohtori Tehseen Zia on COMSATS University Islamabadin apulaisprofessori, joka on suorittanut AI-tutkinnon Wienin Teknillisen yliopiston, Itävallassa. Erityisalanaan ovat Tekoäly, Konenäkö, Data Science ja Machine Learning, ja hän on tehnyt merkittäviä töitä julkaisemalla artikkeleita arvostetuissa tieteellisissä lehdissä. Tohtori Tehseen on myös johtanut useita teollisuusprojekteja pää tutkijana ja toiminut AI-konsulttina.