Intelligenza artificiale
L’IA open-source colpisce di nuovo con Llama 4 di Meta

Negli ultimi anni, il mondo dell’IA è passato da una cultura di collaborazione aperta a una dominata da sistemi proprietari strettamente custoditi. OpenAI – un’azienda letteralmente fondata con “aperto” nel suo nome – ha cambiato rotta verso la segretezza dei suoi modelli più potenti dopo il 2019. I concorrenti come Anthropic e Google hanno costruito AI all’avanguardia dietro API protette, accessibili solo alle loro condizioni. Questo approccio chiuso è stato giustificato in parte da interessi di sicurezza e business, ma ha lasciato molti nella comunità a lamentare la perdita dello spirito open-source iniziale.
Ora, quello spirito sta tornando. I nuovi modelli Llama 4 di Meta segnalano un tentativo audace di rivivificare l’AI open-source ai massimi livelli – e anche i giocatori tradizionalmente guardinghi stanno prendendo nota. Il CEO di OpenAI, Sam Altman, ha recentemente ammesso che l’azienda era “dalla parte sbagliata della storia” riguardo ai modelli aperti e ha annunciato piani per una “potente nuova variante open-weight” di GPT-4. In breve, l’AI open-source sta colpendo di nuovo, e il significato e il valore di “aperto” stanno evolvendo.

(Fonte: Meta)
Llama 4: la sfida open di Meta a GPT-4o, Claude e Gemini
Meta ha presentato Llama 4 come un’altra sfida diretta ai nuovi modelli dei pesi massimi dell’AI, posizionandolo come un’alternativa open-weight. Llama 4 arriva in due varianti disponibili oggi – Llama 4 Scout e Llama 4 Maverick – con specifiche tecniche strabilianti. Entrambi sono modelli mixture-of-experts (MoE) che attivano solo una frazione dei loro parametri per query, consentendo una dimensione totale massiccia senza schiacciare i costi di runtime. Scout e Maverick impugnano ciascuno 17 miliardi di “parametri attivi” (la parte che lavora su un determinato input), ma grazie a MoE, Scout li distribuisce su 16 esperti (109 miliardi di parametri totali) e Maverick su 128 esperti (400 miliardi totali). Il risultato: i modelli Llama 4 offrono prestazioni formidabili – e lo fanno con vantaggi unici che mancano persino ad alcuni modelli chiusi.
Ad esempio, Llama 4 Scout vanta una finestra di contesto di 10 milioni di token in testa alla classe, di diversi ordini di grandezza rispetto ai rivali. Ciò significa che può ingerire e ragionare su documenti o codebase veramente massicci in un solo passaggio. Nonostante le sue dimensioni, Scout è abbastanza efficiente da girare su una singola GPU H100 quando è fortemente quantizzato, suggerendo che gli sviluppatori non avranno bisogno di un supercomputer per sperimentare con esso.
Nel frattempo, Llama 4 Maverick è tarato per la massima potenza. I primi test mostrano Maverick che eguaglia o supera i migliori modelli chiusi in compiti di ragionamento, codifica e visione. In effetti, Meta sta già anticipando un fratello maggiore ancora più grande, Llama 4 Behemoth, ancora in formazione, che internamente “supera GPT-4.5, Claude 3.7 Sonnet e Gemini 2.0 Pro in diversi benchmark STEM”. Il messaggio è chiaro: i modelli aperti non sono più di seconda fascia; Llama 4 sta puntando allo stato dell’arte.
Altrettanto importante, Meta ha reso Llama 4 immediatamente disponibile per il download e l’uso. Gli sviluppatori possono scaricare Scout e Maverick dal sito ufficiale o Hugging Face sotto la licenza Llama 4 Community. Ciò significa che chiunque – da un hacker in garage a un’azienda Fortune 500 – può guardare sotto il cofano, personalizzare il modello in base alle proprie esigenze e distribuirlo sulla propria attrezzatura o nel cloud. Questo è in netto contrasto con le offerte proprietarie come GPT-4o di OpenAI o Claude 3.7 di Anthropic, che vengono servite tramite API a pagamento senza accesso ai pesi sottostanti.
Meta sottolinea che l’apertura di Llama 4 è questione di potenziare gli utenti: “Condividiamo i primi modelli del branco Llama 4, che consentiranno alle persone di costruire esperienze multimodali più personalizzate”. In altre parole, Llama 4 è uno strumento destinato a essere nelle mani degli sviluppatori e dei ricercatori di tutto il mondo. Rilasciando modelli che possono rivaleggiare con quelli come GPT-4 e Claude per capacità, Meta sta rivivificando l’idea che l’AI di alto livello non debba vivere dietro una barriera di pagamento.

(Fonte: Meta)
Autentico idealismo o mossa strategica?
Meta presenta Llama 4 in termini grandiosi, quasi altruistici. “Il nostro modello AI open source, Llama, è stato scaricato più di un miliardo di volte”, ha annunciato recentemente il CEO Mark Zuckerberg annunciando che “l’open sourcing dei modelli AI è essenziale per garantire che le persone ovunque abbiano accesso ai benefici dell’AI”. Questa cornice dipinge Meta come il portabandiera dell’AI democratizzata – un’azienda disposta a condividere i suoi modelli più pregiati per il bene più grande. E in effetti, la popolarità della famiglia Llama sostiene questo: i modelli sono stati scaricati a una scala sorprendente (saltando da 650 milioni a 1 miliardo di download totali in pochi mesi), e sono già utilizzati in produzione da aziende come Spotify, AT&T e DoorDash.
Meta sottolinea con orgoglio che gli sviluppatori apprezzano la “trasparenza, personalizzabilità e sicurezza” di avere modelli aperti che possono eseguire autonomamente, il che “aiuta a raggiungere nuovi livelli di creatività e innovazione”, rispetto alle API black-box. In linea di principio, questo suona come l’etica del software open source (pensiamo a Linux o Apache) applicata all’AI – una vittoria inequivocabile per la comunità.
Eppure, non si può ignorare il calcolo strategico dietro questa apertura. Meta non è un’organizzazione di beneficenza, e “open-source” in questo contesto viene con delle clausole. Notabilmente, Llama 4 è rilasciato sotto una licenza comunitaria speciale, non una licenza permissiva standard – quindi, mentre i pesi del modello sono gratuiti da usare, ci sono restrizioni (ad esempio, alcuni casi d’uso ad alta risorsa possono richiedere il permesso, e la licenza è “proprietaria” nel senso che è stata creata da Meta). Questo non è il Open Source Initiative (OSI) approvato definizione di open source, che ha portato alcuni critici ad affermare che le aziende stanno abusando del termine.
Nella pratica, l’approccio di Meta è spesso descritto come “open-weight” o “source-available” AI: il codice e i pesi sono aperti, ma Meta mantiene ancora un certo controllo e non divulga tutto (ad esempio, i dati di formazione). Ciò non diminuisce l’utilità per gli utenti, ma mostra che Meta è strategicamente aperta – mantenendo abbastanza redini per proteggersi (e forse il suo vantaggio competitivo). Molte aziende stanno apponendo etichette “open source” ai modelli AI mentre nascondono dettagli chiave, sovvertendo lo spirito vero dell’apertura.
Perché Meta dovrebbe aprire affatto? Il paesaggio competitivo offre indizi. Rilasciare modelli potenti gratuitamente può rapidamente costruire una vasta base di utenti sviluppatori ed enterprise – Mistral AI, una startup francese, ha fatto esattamente questo con i suoi primi modelli aperti per guadagnare credibilità come laboratorio di alto livello.
Rilasciando Llama, Meta assicura che la sua tecnologia diventi fondamentale nell’ecosistema AI, il che potrebbe portare dividendi a lungo termine. È una classica strategia di abbracciare ed estendere: se tutti usano il tuo modello “aperto”, indirettamente si stabiliscono standard e forse si indirizzano le persone verso le proprie piattaforme (ad esempio, i prodotti di assistenza AI di Meta sfruttano Llama). C’è anche un elemento di PR e posizionamento. Meta ottiene il ruolo dell’innovatore benevolo, specialmente in contrasto con OpenAI – che ha affrontato critiche per il suo approccio chiuso. In effetti, il cambio di cuore di OpenAI sui modelli aperti sottolinea in parte quanto efficace sia stata la mossa di Meta.
Dopo l’emergere del modello open cinese DeepSeek-R1 a gennaio e aver superato i modelli precedenti, Altman ha indicato che OpenAI non voleva essere lasciata “dalla parte sbagliata della storia”. Ora OpenAI sta promettendo un modello aperto con forti capacità di ragionamento nel futuro, segna un cambio di atteggiamento. È difficile non vedere l’influenza di Meta in questo cambio. La postura open-source di Meta è sia autentica e strategica: amplia genuinamente l’accesso all’AI, ma è anche un’astuta mossa per superare i rivali e plasmare il futuro del mercato secondo i termini di Meta.
Implicazioni per gli sviluppatori, le aziende e il futuro dell’AI
Per gli sviluppatori, il ritorno dei modelli aperti come Llama 4 è una boccata di aria fresca. Invece di essere bloccati nell’ecosistema di un singolo fornitore e relative tariffe, ora hanno l’opzione di eseguire AI potente sulla propria infrastruttura o personalizzarla liberamente.
Questo è un enorme vantaggio per le aziende in settori sensibili – pensiamo a finanza, sanità o governo – che sono restie a fornire dati riservati a una scatola nera di qualcun altro. Con Llama 4, una banca o un ospedale potrebbero distribuire un modello linguistico di stato dell’arte dietro il proprio firewall, tarandolo su dati privati, senza condividere un token con un’entità esterna. C’è anche un vantaggio in termini di costo. Mentre le tariffe basate sull’uso per i modelli di alto livello possono schizzare verso l’alto, un modello aperto non ha alcun pedaggio per l’uso – si paga solo per la potenza di calcolo per eseguirlo. Le aziende che aumentano i carichi di lavoro AI intensivi possono risparmiare notevolmente optando per una soluzione aperta che possono scalare internamente.
Non sorprende quindi che stiamo vedendo un maggior interesse per i modelli aperti da parte delle aziende; molte hanno iniziato a rendersi conto che il controllo e la sicurezza dell’AI open-source si allineano meglio con le loro esigenze rispetto ai servizi chiusi one-size-fits-all.
Gli sviluppatori, anche, traggono vantaggi nell’innovazione. Con l’accesso agli interni del modello, possono personalizzare e migliorare l’AI per domini di nicchia (legge, biotecnologia, lingue regionali – si nomini) in modi che un’API chiusa potrebbe mai soddisfare. L’esplosione di progetti guidati dalla comunità intorno ai modelli Llama precedenti – da chatbot tarati sulla conoscenza medica ad app per smartphone che eseguono versioni miniature – ha dimostrato come i modelli aperti possano democratizzare l’esperimentazione.
Tuttavia, il rinascimento dei modelli aperti solleva anche domande difficili. La “democratizzazione” si verifica veramente se solo coloro che hanno risorse computazionali significative possono eseguire un modello da 400 miliardi di parametri? Mentre Llama 4 Scout e Maverick abbassano la barra hardware rispetto ai modelli monolitici, sono ancora pesanti – un punto non perso su alcuni sviluppatori il cui PC non può gestirli senza aiuto cloud.
La speranza è che tecniche come la compressione del modello, la distillazione o le varianti di esperti più piccole possano far scendere la potenza di Llama 4 a dimensioni più accessibili. Un’altra preoccupazione è l’abuso. OpenAI e altri hanno a lungo sostenuto che il rilascio di modelli potenti apertamente potrebbe abilitare attori malintenzionati (per la generazione di disinformazione, codice malware, ecc.).
Queste preoccupazioni rimangono: un modello open-source come Claude o GPT potrebbe essere utilizzato in modo improprio senza i filtri di sicurezza che le aziende applicano sulle loro API. D’altra parte, i sostenitori sostengono che l’apertura consente alla comunità di identificare e risolvere i problemi, rendendo i modelli più robusti e trasparenti nel tempo rispetto a qualsiasi sistema segreto. C’è evidenza che le comunità dei modelli aperti prendono seriamente la sicurezza, sviluppando le proprie barriere di protezione e condividendo le migliori pratiche – ma è una tensione in corso.
Ciò che sta diventando sempre più chiaro è che ci stiamo dirigendo verso un paesaggio AI ibrido in cui i modelli aperti e chiusi coesistono, influenzandosi a vicenda. I fornitori chiusi come OpenAI, Anthropic e Google mantengono ancora un vantaggio in termini di prestazioni assolute – per ora. In effetti, alla fine del 2024, la ricerca ha suggerito che i modelli aperti erano circa un anno indietro rispetto ai migliori modelli chiusi in termini di capacità. Ma quel divario si sta chiudendo rapidamente.
Nel mercato odierno, “AI open-source” non significa più solo progetti hobbistici o modelli vecchi – è ora al cuore della strategia AI per i giganti della tecnologia e le startup allo stesso modo. Il lancio di Llama 4 di Meta è un potente promemoria del valore in evoluzione dell’apertura. È allo stesso tempo una presa di posizione filosofica per la democratizzazione della tecnologia e una mossa tattica in una battaglia industriale ad alto rischio. Per gli sviluppatori e le aziende, apre nuove porte all’innovazione e all’autonomia, anche se complica le decisioni con nuovi compromessi. E per l’ecosistema più ampio, solleva la speranza che i benefici dell’AI non saranno bloccati nelle mani di poche corporation – se l’etica open-source può mantenere la sua posizione.










