Connect with us

Liquid AI Lancia Modelli di Fondazione Liquid: Un Cambio di Gioco nell’Intelligenza Artificiale Generativa

Intelligenza artificiale

Liquid AI Lancia Modelli di Fondazione Liquid: Un Cambio di Gioco nell’Intelligenza Artificiale Generativa

mm

In un annuncio epocale, Liquid AI, una spin-off del MIT, ha introdotto la sua prima serie di Modelli di Fondazione Liquid (LFM). Questi modelli, progettati da principi fondamentali, stabiliscono un nuovo benchmark nello spazio dell’intelligenza artificiale generativa, offrendo prestazioni ineguagliate su varie scale. I LFM, con la loro architettura innovativa e capacità avanzate, sono pronti a sfidare i modelli di intelligenza artificiale leader del settore, compreso ChatGPT.

Liquid AI è stata fondata da un team di ricercatori del MIT, tra cui Ramin Hasani, Mathias Lechner, Alexander Amini e Daniela Rus. Con sede a Boston, nel Massachusetts, la missione dell’azienda è quella di creare sistemi di intelligenza artificiale general-purpose capaci ed efficienti per imprese di tutte le dimensioni. Il team ha originariamente sviluppato reti neurali liquide, una classe di modelli di intelligenza artificiale ispirati alla dinamica del cervello, e ora mira ad espandere le capacità dei sistemi di intelligenza artificiale a tutte le scale, dalle periferiche alle implementazioni aziendali di livello enterprise.

Cosa Sono i Modelli di Fondazione Liquid (LFM)?

I Modelli di Fondazione Liquid rappresentano una nuova generazione di sistemi di intelligenza artificiale che sono altamente efficienti sia in termini di utilizzo della memoria che di potenza di calcolo. Costruiti con una base in sistemi dinamici, elaborazione dei segnali e algebra lineare numerica, questi modelli sono progettati per gestire vari tipi di dati sequenziali – come testo, video, audio e segnali – con notevole accuratezza.

Liquid AI ha sviluppato tre modelli linguistici principali come parte di questo lancio:

  • LFM-1B: Un modello denso con 1,3 miliardi di parametri, ottimizzato per ambienti con risorse limitate.
  • LFM-3B: Un modello da 3,1 miliardi di parametri, ideale per scenari di distribuzione edge, come ad esempio le applicazioni mobili.
  • LFM-40B: Un modello da 40,3 miliardi di parametri Mixture of Experts (MoE) progettato per gestire compiti complessi con prestazioni eccezionali.

Questi modelli hanno già dimostrato risultati all’avanguardia in vari benchmark di intelligenza artificiale, rendendoli un formidabile concorrente per i modelli di intelligenza artificiale generativa esistenti.

Prestazioni All’avanguardia

I LFM di Liquid AI offrono prestazioni di classe mondiale in vari benchmark. Ad esempio, LFM-1B supera i modelli basati su trasformatori nella sua categoria di dimensioni, mentre LFM-3B compete con modelli più grandi come Phi-3.5 di Microsoft e la serie Llama di Meta. Il modello LFM-40B, nonostante le sue dimensioni, è abbastanza efficiente da rivaleggiare con modelli con contatori di parametri ancora più grandi, offrendo un equilibrio unico tra prestazioni ed efficienza delle risorse.

Alcuni punti salienti delle prestazioni dei LFM includono:

  • LFM-1B: Domina benchmark come MMLU e ARC-C, stabilendo un nuovo standard per i modelli da 1 miliardo di parametri.
  • LFM-3B: Supera modelli come Phi-3.5 e Gemma 2 di Google in termini di efficienza, mantenendo un’impronta di memoria ridotta, rendendolo ideale per applicazioni di intelligenza artificiale mobile e edge.
  • LFM-40B: L’architettura MoE di questo modello offre prestazioni paragonabili a modelli più grandi, con 12 miliardi di parametri attivi in qualsiasi momento.

Una Nuova Era nell’Efficienza dell’Intelligenza Artificiale

Una delle sfide significative nell’intelligenza artificiale moderna è la gestione della memoria e del calcolo, in particolare quando si lavora con compiti a lungo contesto come la riassunto di documenti o le interazioni con i chatbot. I LFM eccellono in questo settore, compressando efficientemente i dati di input, risultando in un consumo di memoria ridotto durante l’inferenza. Ciò consente ai modelli di elaborare sequenze più lunghe senza richiedere costosi aggiornamenti hardware.

Ad esempio, LFM-3B offre una lunghezza di contesto di 32k token – rendendolo uno dei modelli più efficienti per compiti che richiedono grandi quantità di dati da elaborare simultaneamente.

Un’Architettura Rivoluzionaria

I LFM sono costruiti su un framework architettonico unico, che si discosta dai modelli di trasformatori tradizionali. L’architettura è centrata intorno a operatori lineari adattivi, che modulano il calcolo in base ai dati di input. Questo approccio consente a Liquid AI di ottimizzare notevolmente le prestazioni su varie piattaforme hardware, tra cui NVIDIA, AMD, Cerebras e Apple.

Lo spazio di progettazione per i LFM coinvolge una novità che combina strutture di mixing dei token e strutture di mixing dei canali che migliorano la modalità in cui il modello elabora i dati. Ciò porta a capacità di generalizzazione e ragionamento superiori, in particolare nei compiti a lungo contesto e nelle applicazioni multimodali.

Estendere i Confini dell’Intelligenza Artificiale

Liquid AI ha ambizioni grandiose per i LFM. Oltre ai modelli linguistici, l’azienda sta lavorando per estendere i suoi modelli di fondazione per supportare vari tipi di dati, tra cui video, audio e dati di serie temporali. Questi progressi consentiranno ai LFM di scalare attraverso vari settori, come servizi finanziari, biotecnologia e elettronica di consumo.

L’azienda si concentra anche sul contribuire alla comunità scientifica aperta. Sebbene i modelli stessi non siano open-source al momento, Liquid AI prevede di rilasciare risultati di ricerca pertinenti, metodi e set di dati alla più ampia comunità di intelligenza artificiale, incoraggiando la collaborazione e l’innovazione.

Accesso Anticipato e Adozione

Liquid AI offre attualmente l’accesso anticipato ai suoi LFM attraverso varie piattaforme, tra cui Liquid Playground, Lambda (Chat UI e API) e Perplexity Labs. Le imprese che desiderano integrare sistemi di intelligenza artificiale all’avanguardia nelle loro operazioni possono esplorare il potenziale dei LFM in vari ambienti di distribuzione, dalle periferiche alle soluzioni on-premise.

L’approccio open-science di Liquid AI incoraggia gli adottanti anticipati a condividere le loro esperienze e intuizioni. L’azienda cerca attivamente feedback per raffinare e ottimizzare i suoi modelli per applicazioni nel mondo reale. Sviluppatori e organizzazioni interessati a far parte di questo percorso possono contribuire agli sforzi di red-teaming e aiutare Liquid AI a migliorare i suoi sistemi di intelligenza artificiale.

Conclusione

Il rilascio dei Modelli di Fondazione Liquid segna un avanzamento significativo nel panorama dell’intelligenza artificiale. Con un focus sull’efficienza, l’adattabilità e le prestazioni, i LFM sono pronti a ridisegnare il modo in cui le imprese si avvicinano all’integrazione dell’intelligenza artificiale. Man mano che più organizzazioni adottano questi modelli, la visione di Liquid AI di sistemi di intelligenza artificiale general-purpose scalabili sarà probabilmente un pilastro dell’era successiva dell’intelligenza artificiale.

Se sei interessato a esplorare il potenziale dei LFM per la tua organizzazione, Liquid AI ti invita a contattarli e unirti alla crescente comunità di adottanti anticipati che plasmano il futuro dell’intelligenza artificiale.

Per ulteriori informazioni, visita il sito web ufficiale di Liquid AI e inizia a sperimentare con i LFM oggi.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.