Seguici sui social

Una centrale elettrica tascabile: svelato Phi-3 di Microsoft, il modello linguistico che si adatta al tuo telefono

Intelligenza Artificiale

Una centrale elettrica tascabile: svelato Phi-3 di Microsoft, il modello linguistico che si adatta al tuo telefono

mm

Nel campo in rapida evoluzione dell'intelligenza artificiale, mentre la tendenza si è spesso orientata verso modelli più grandi e complessi, Microsoft sta adottando un approccio diverso con il suo Phi-3 Mini. Questo modello del linguaggio piccolo (SLM), giunto alla terza generazione, racchiude le robuste capacità dei modelli più grandi in una struttura che si adatta ai severi vincoli di risorse degli smartphone. Con 3.8 miliardi di parametri, il Phi-3 Mini corrisponde alle prestazioni di modelli linguistici di grandi dimensioni (LLM) in varie attività tra cui elaborazione del linguaggio, ragionamento, codifica e matematica, ed è personalizzato per un funzionamento efficiente su dispositivi mobili attraverso la quantizzazione.

Sfide dei grandi modelli linguistici

Lo sviluppo dei Phi SLM di Microsoft risponde alle significative sfide poste dai LLM, che richiedono una potenza di calcolo superiore a quella normalmente disponibile sui dispositivi consumer. Questa elevata richiesta ne complica l'utilizzo su computer standard e dispositivi mobili, solleva preoccupazioni ambientali a causa del consumo energetico durante l'addestramento e il funzionamento e rischia di perpetuare distorsioni dovute ai loro ampi e complessi set di dati di addestramento. Questi fattori possono anche compromettere la reattività dei modelli nelle applicazioni in tempo reale e rendere gli aggiornamenti più complessi.

Phi-3 Mini: semplificazione dell'intelligenza artificiale sui dispositivi personali per una maggiore privacy ed efficienza

. Phi-3 Mini è strategicamente progettato per offrire un'alternativa economica ed efficiente per l'integrazione dell'intelligenza artificiale avanzata direttamente su dispositivi personali come telefoni e laptop. Questo design facilita risposte più rapide e immediate, migliorando l'interazione dell'utente con la tecnologia negli scenari quotidiani.

Phi-3 Mini consente l'elaborazione diretta di sofisticate funzionalità di intelligenza artificiale sui dispositivi mobili, riducendo la dipendenza dai servizi cloud e migliorando la gestione dei dati in tempo reale. Questa capacità è fondamentale per le applicazioni che richiedono l'elaborazione immediata dei dati, come l'assistenza sanitaria mobile, la traduzione linguistica in tempo reale e la formazione personalizzata, facilitando i progressi in questi campi. L'economicità del modello non solo riduce i costi operativi, ma amplia anche il potenziale di integrazione dell'intelligenza artificiale in vari settori, inclusi mercati emergenti come la tecnologia indossabile e la domotica. Phi-3 Mini consente l'elaborazione dei dati direttamente sui dispositivi locali, aumentando la privacy degli utenti. Questo potrebbe essere fondamentale per la gestione di informazioni sensibili in settori come la salute personale e i servizi finanziari. Inoltre, il basso consumo energetico del modello contribuisce a operazioni di intelligenza artificiale ecosostenibili, in linea con gli sforzi globali per la sostenibilità.

Filosofia progettuale ed evoluzione di Phi

La filosofia progettuale di Phi si basa sul concetto di apprendimento curriculare, che trae ispirazione dall'approccio educativo in cui i bambini imparano attraverso esempi progressivamente più stimolanti. L’idea principale è quella di iniziare l’addestramento dell’IA con esempi più semplici e aumentare gradualmente la complessità dei dati di addestramento man mano che il processo di apprendimento avanza. Microsoft ha implementato questa strategia educativa costruendo un set di dati partendo dai libri di testo, come dettagliato nel loro studio “I libri di testo sono tutto ciò di cui hai bisogno.” La serie Phi è stata lanciata nel giugno 2023, a cominciare da Phi-1, un modello compatto che vanta 1.3 miliardi di parametri. Questo modello ha rapidamente dimostrato la sua efficacia, in particolare nelle attività di codifica Python, dove ha sovraperformato modelli più grandi e complessi. Basandosi su questo successo, Microsoft ha recentemente sviluppato Phi-1.5, che ha mantenuto lo stesso numero di parametri ma ha ampliato le sue capacità in aree come il ragionamento basato sul buon senso e la comprensione del linguaggio. La serie è stata superata con l'uscita di Phi-2 nel dicembre 2023. Con 2.7 miliardi di parametri, Phi-2 ha mostrato capacità impressionanti nel ragionamento e nella comprensione del linguaggio, posizionandosi come un forte concorrente rispetto a modelli significativamente più grandi.

Phi-3 contro altri modelli linguistici piccoli

Ampliando i suoi predecessori, Phi-3 Mini estende i progressi di Phi-2 superando altri SLM, come Gemma di Google, Mistral di Mistral, Llama3-Instruct di Metae GPT3.5, in una varietà di applicazioni industriali. Queste applicazioni includono comprensione e inferenza del linguaggio, conoscenza generale, ragionamento basato sul buon senso, problemi di parole matematiche nelle scuole elementari e risposta a domande mediche, mostrando prestazioni superiori rispetto a questi modelli. Il Phi-3 Mini è stato anche sottoposto a test offline su un iPhone 14 per varie attività, tra cui la creazione di contenuti e la fornitura di suggerimenti di attività su misura per luoghi specifici. A questo scopo, Phi-3 Mini è stato condensato a 1.8 GB utilizzando un processo chiamato quantizzazione, che ottimizza il modello per dispositivi con risorse limitate convertendo i dati numerici del modello da numeri in virgola mobile a 32 bit a formati più compatti come interi a 4 bit. Ciò non solo riduce l'occupazione di memoria del modello, ma migliora anche la velocità di elaborazione e l'efficienza energetica, fattori essenziali per i dispositivi mobili. Gli sviluppatori in genere utilizzano framework come TensorFlow Lite or PyTorch cellulare, incorporando strumenti di quantizzazione integrati per automatizzare e perfezionare questo processo.

Confronto delle caratteristiche: Phi-3 Mini vs. Phi-2 Mini

Di seguito confrontiamo alcune delle caratteristiche del Phi-3 con il suo predecessore Phi-2.

  • Architettura di modello: Phi-2 funziona su un'architettura basata su trasformatore progettata per prevedere la parola successiva. Anche Phi-3 Mini utilizza un'architettura di decodificazione a trasformatore ma si allinea più strettamente con la struttura del modello Llama-2, utilizzando lo stesso tokenizzatore con una dimensione di vocabolario di 320,641. Questa compatibilità garantisce che gli strumenti sviluppati per Llama-2 possano essere facilmente adattati per l'uso con Phi-3 Mini.
  • Lunghezza del contesto: Phi-3 Mini supporta una lunghezza del contesto di 8,000 token, che è notevolmente maggiore dei 2 token di Phi-2,048. Questo incremento consente a Phi-3 Mini di gestire interazioni più dettagliate ed elaborare tratti di testo più lunghi.
  • Esecuzione locale su dispositivi mobili: Phi-3 Mini può essere compresso a 4 bit, occupando circa 1.8 GB di memoria, in modo simile a Phi-2. È stato testato offline su un iPhone 14 con un chip A16 Bionic, dove ha raggiunto una velocità di elaborazione di oltre 12 token al secondo, eguagliando le prestazioni di Phi-2 in condizioni simili.
  • Modello Dimensioni: Con 3.8 miliardi di parametri, Phi-3 Mini ha una scala maggiore rispetto a Phi-2, che ha 2.7 miliardi di parametri. Ciò riflette le sue maggiori capacità.
  • Dati di allenamento: A differenza di Phi-2, che è stato addestrato su 1.4 trilioni di token, Phi-3 Mini è stato addestrato su un set molto più ampio di 3.3 trilioni di token, consentendogli di acquisire una migliore comprensione di modelli linguistici complessi.

Affrontare i limiti di Phi-3 Mini

Sebbene il Phi-3 Mini dimostri progressi significativi nel campo dei piccoli modelli linguistici, non è privo di limiti. Uno dei limiti principali del Phi-3 Mini, date le sue dimensioni ridotte rispetto ai modelli linguistici massicci, è la sua capacità limitata di memorizzare un’ampia conoscenza fattuale. Ciò può influire sulla sua capacità di gestire in modo indipendente domande che richiedono una profondità di dati concreti specifici o una conoscenza approfondita da parte di esperti. Questo tuttavia può essere mitigato integrando Phi-3 Mini con un motore di ricerca. In questo modo il modello può accedere a una gamma più ampia di informazioni in tempo reale, compensando efficacemente i suoi limiti di conoscenza intrinseci. Questa integrazione consente al Phi-3 Mini di funzionare come un conversatore altamente capace che, nonostante una conoscenza completa del linguaggio e del contesto, potrebbe occasionalmente aver bisogno di "cercare" informazioni per fornire risposte accurate e aggiornate.

Disponibilità

Phi-3 è ora disponibile su diverse piattaforme, tra cui Microsoft Azure AI Studio, Abbracciare il visoe Ollama. Su Azure AI, il modello incorpora un flusso di lavoro di distribuzione-valutazione-ottimizzazione e su Ollama può essere eseguito localmente sui laptop. Il modello è stato realizzato su misura per Runtime ONNX e supporta Windows DirectML, garantendo che funzioni bene su vari tipi di hardware come GPU, CPU e dispositivi mobili. Inoltre, Phi-3 viene offerto come microservizio tramite NVIDIA NIM, dotato di un'API standard per una facile implementazione in diversi ambienti e ottimizzato specificamente per le GPU NVIDIA. Microsoft prevede di espandere ulteriormente la serie Phi-3 nel prossimo futuro aggiungendo i modelli Phi-3-small (7B) e Phi-3-medium (14B), offrendo agli utenti ulteriori scelte per bilanciare qualità e costi.

Conclusione

Phi-3 Mini di Microsoft sta compiendo passi da gigante nel campo dell'intelligenza artificiale, adattando la potenza dei modelli linguistici di grandi dimensioni all'uso mobile. Questo modello migliora l'interazione dell'utente con i dispositivi grazie a un'elaborazione più rapida e in tempo reale e a funzionalità di privacy avanzate. Riduce al minimo la necessità di servizi basati su cloud, riducendo i costi operativi e ampliando la portata delle applicazioni di intelligenza artificiale in settori come l'assistenza sanitaria e la domotica. Con l'obiettivo di ridurre i pregiudizi attraverso l'apprendimento curriculare e il mantenimento di prestazioni competitive, Phi-3 Mini si sta evolvendo in uno strumento chiave per un'intelligenza artificiale mobile efficiente e sostenibile, trasformando in modo sottile il modo in cui interagiamo quotidianamente con la tecnologia.

Il dottor Tehseen Zia è professore associato di ruolo presso l'Università COMSATS di Islamabad e ha conseguito un dottorato di ricerca in intelligenza artificiale presso l'Università della Tecnologia di Vienna, in Austria. Specializzato in Intelligenza Artificiale, Machine Learning, Data Science e Computer Vision, ha dato contributi significativi con pubblicazioni su rinomate riviste scientifiche. Il dottor Tehseen ha anche guidato vari progetti industriali in qualità di ricercatore principale e ha lavorato come consulente in materia di intelligenza artificiale.