Intelligenza artificiale
Fondazione PyTorch Integra Ray, un Framework di Calcolo Distribuito, per Creare uno Stack di Infrastruttura AI Unificato

L’ecosistema open source AI ha fatto oggi un passo decisivo in avanti, poiché la Fondazione PyTorch ha annunciato che Ray, il framework di calcolo distribuito originariamente sviluppato da Anyscale, è ufficialmente entrato a far parte del suo team. Questo passo segna un importante progresso verso uno stack di calcolo AI unificato, interoperabile e pronto per la produzione – uno che lega insieme i livelli fondamentali dello sviluppo del modello (PyTorch), dell’inferenza distribuita (vLLM) e dell’esecuzione su larga scala (Ray).
Una Fondazione Unificata per l’AI Open Source
Ospitata sotto la Linux Foundation, la Fondazione PyTorch agisce come un hub centrale per alcune delle tecnologie AI open source più importanti. La sua missione è quella di ridurre la frammentazione e favorire la collaborazione in ogni fase dello sviluppo AI. Integrando Ray insieme a PyTorch e vLLM, la fondazione sta fornendo ciò che l’industria ha a lungo richiesto – uno stack coeso, end-to-end per la costruzione, l’addestramento e la distribuzione di AI su larga scala.
L’inclusione di Ray rappresenta anche il culmine di anni di evoluzione accademica e industriale. Nato al RISELab dell’UC Berkeley, Ray è stato progettato per semplificare il calcolo distribuito per carichi di lavoro di intelligenza artificiale e apprendimento automatico. Consente agli sviluppatori di scalare i lavori in modo trasparente da un singolo laptop a migliaia di macchine senza riscrivere il codice o gestire sistemi complessi. Al momento, Ray vanta oltre 39.000 stelle GitHub e oltre 214 milioni di download, rendendolo uno dei framework di calcolo distribuito più ampiamente adottati al mondo.
Come Ray Complementa PyTorch e vLLM
Ray si trova tra i framework di addestramento e inferenza (come PyTorch, DeepSpeed e vLLM) e il livello di orchestrazione dei container (come Kubernetes o Slurm). Questa posizione consente a Ray di coordinare i carichi di lavoro distribuiti in modo efficiente, colmando il divario tra l’addestramento del modello e la distribuzione su larga scala.
Le principali funzionalità di Ray includono:
- Elaborazione dei dati multimodali: gestisce enormi e diversi set di dati – testo, immagini, audio e video – in parallelo, massimizzando il throughput e l’efficienza.
- Pre-addestramento e post-ottimizzazione: scala PyTorch e altri framework su migliaia di GPU per entrambi i compiti di pre-addestramento e ottimizzazione.
- Inferenza distribuita: distribuisce modelli in produzione con alto throughput e bassa latenza, gestendo dinamicamente le esplosioni di carico di lavoro su cluster eterogenei.
Insieme, queste funzioni rendono Ray il “collante” che lega la creazione del modello, l’ottimizzazione e la distribuzione, formando efficacemente il livello del motore di calcolo distribuito dell’infrastruttura AI moderna.
Cosa Significa Ciò per gli Sviluppatori e le Imprese
Nell’economia guidata dall’AI di oggi, le organizzazioni affrontano enormi sfide legate alla scalabilità, al vendor lock-in e all’inefficienza del calcolo. I sistemi proprietari spesso frammentano i flussi di lavoro e rallentano l’innovazione. Con Ray che si unisce alla Fondazione PyTorch, gli sviluppatori guadagnano uno stack di calcolo completamente open source e interoperabile che elimina molti di questi punti deboli.
Come ha spiegato Matt White, GM di AI alla Linux Foundation, questa collaborazione “unisce i componenti critici necessari per costruire i sistemi AI di prossima generazione”. L’unificazione consente ai team di sviluppare sistemi AI avanzati – che vanno dai grandi modelli linguistici alle applicazioni multimodali – senza affidarsi a infrastrutture chiuse e proprietarie. Invece, gli sviluppatori possono addestrare e distribuire modelli AI utilizzando un ecosistema che è scalabile, modulare e guidato dalla comunità.
Le Implicazioni più Ampie per l’AI Open Source
La collaborazione tra PyTorch, vLLM e Ray punta verso una nuova era di interoperabilità del calcolo open source. Con la Linux Foundation che fornisce una governance neutrale, l’industria AI guadagna un modello sostenibile per lo sviluppo di infrastrutture condivise – simile a come Kubernetes ha standardizzato l’orchestrazione del cloud.
I leader del settore hanno espresso questo sentimento. Chris Aniszczyk della Cloud Native Computing Foundation ha notato che “Ray e Kubernetes sono naturalmente complementari“, combinando le forze dell’orchestrazione e del calcolo distribuito per alimentare i sistemi AI di prossima generazione. Il direttore dell’ingegneria di Uber, Zhitao Li, ha aggiunto che Ray è già un“elemento fondamentale” della loro piattaforma AI, alimentando l’addestramento e l’elaborazione dei dati su larga scala. E Joe Spisak di Meta, un membro del consiglio di amministrazione della Fondazione PyTorch, ha definito l’aggiunta di Ray un“importante traguardo per l’AI open source“, sottolineando come crei uno stack di calcolo unificato e guidato dalla comunità.
Guardando Avanti
Il co-fondatore di Anyscale, Robert Nishihara, ha riassunto il traguardo in modo conciso:
“Il nostro obiettivo è rendere il calcolo distribuito così semplice come scrivere codice Python. Unirsi alla Fondazione PyTorch garantisce che Ray continui a essere una spina dorsale aperta e guidata dalla comunità per gli sviluppatori.”
Gli sviluppatori e i contributori possono interagire con il progetto tramite il repository GitHub di Ray o partecipare al Ray Summit 2025 a San Francisco questo novembre, dove la comunità esplorerà ulteriormente cosa significa questa nuova fondazione open source per il futuro della scalabilità e dell’accessibilità dell’AI.
In sostanza, l’aggiunta di Ray completa il livello mancante nell’ecosistema AI open source – unendo modellazione, inferenza e esecuzione distribuita sotto una sola fondazione. È un passo fondamentale verso un futuro in cui l’infrastruttura AI non è solo più potente, ma anche più aperta, efficiente e amichevole per gli sviluppatori.












