Seguici sui social

Il miraggio dell'intelligenza artificiale cinese: come l'"open source" nasconde ciò che conta di più

Leader del pensiero

Il miraggio dell'intelligenza artificiale cinese: come l'"open source" nasconde ciò che conta di più

mm

Con i grandi attori della tecnologia come Google, Microsoft e Meta che competono per dominare il mercato dell'intelligenza artificiale, i cinesi High Flyer, Baidu, Moonshot e Alibaba hanno fatto notizia per aver rilasciato i loro DeepSeekERNI 4.5Kimi K2Qwen3 rispettivamente, modelli linguistici di grandi dimensioni, open source. Questo passaggio dal rilascio di modelli GenAI protetti e proprietari è stato accolto come un segnale che l'industria cinese dell'intelligenza artificiale sta abbracciando il potere dell'open source per democratizzare lo sviluppo dell'intelligenza artificiale e stimolare l'innovazione.

Tuttavia, come molti attori che pubblicizzano le proprie offerte come open source e lo indicano persino nel nome della propria azienda, High Flyer, Baidu e Moonshot non hanno effettivamente condiviso elementi essenziali come i set di dati al centro dei loro modelli. Poiché questi grandi modelli mirano a diventare prodotti di base su cui gli sviluppatori fanno affidamento, la trasparenza di un vero open source, che può essere testato, studiato e iterato, è fondamentale per creare una tecnologia imparziale, etica e vantaggiosa di cui tutti possiamo fidarci. Tutti questi modelli "open source" sono in realtà "open weight", il che significa che possono essere scaricati e utilizzati, ma non possono essere ispezionati in modo significativo senza i dati.

Come piace ai giocatori statunitensi Apri AI e Meta Sebbene Baidu sembri allontanarsi dall'open source, l'invito aperto a sfruttare la sua suite di modelli ERNIE 4.5, disponibile gratuitamente, può effettivamente stimolare l'innovazione e la collaborazione con gli sviluppatori che desiderano creare applicazioni più piccole e potenti. Allo stesso tempo, l'azienda, simile alla cinese Google, si è guadagnata un vantaggio competitivo incoraggiando l'adozione e consolidando i suoi modelli nel fiorente ecosistema dell'intelligenza artificiale.

Lo stesso si può dire per DeepSeek, il Kimi K2 a basso costo e il Qwen3 aggiornato, che vanta benchmark che sfidano modelli chiusi come Claude Opus 4 e GPT-4o-0327.

Questi giocatori di intelligenza artificiale si sono ben posizionati nella corsa per diventare il modello di prodotto preferito e l'ultimo aggiornamento innovativo di Qwen3 è stato addirittura ispirato dal feedback della comunità open source.

Tuttavia, come molti che pubblicizzano il loro ampio modello di intelligenza artificiale come open source, la comunità cinese dell'intelligenza artificiale non condivide effettivamente i dati o altri elementi critici dei propri sistemi. Piuttosto, chiede agli sviluppatori globali di riporre la loro cieca fiducia in modelli che non possono realmente comprendere o analizzare.

Rivendicare il futuro con modelli di intelligenza artificiale open source

Quando l'iPhone è arrivato sul mercato nel 2007, alcuni hanno dato per scontato che il Mac avrebbe dominato il gioco degli smartphone con iOS, ma la partecipazione open source è fondamentale per le startup, stimolando al contempo la crescita imprenditoriale ed economica in tutto il mondo. Android, una start-up acquisita da Google nel 2005, ha seguito questo percorso verso la vittoria.

Rilasciando un software open source che poteva essere visualizzato, modificato, adottato e condiviso, Android ha invitato accademici, sviluppatori e persino concorrenti a collaborare al software. Ciò ha accelerato il processo di innovazione, democratizzato il campo di gioco e, in definitiva, ha fatto scendere i prezzi. Android è arrivato sul mercato un anno dopo il primo iPhone e, all'inizio di quest'anno, vantava il 71.88 percento del mercato globale, contro il 27.65 percento di iOS.

In una rivoluzione tecnologica che sembrava avvenire da un giorno all'altro, gli smartphone sono diventati onnipresenti e, nonostante i continui miglioramenti di software, hardware e interfaccia utente, il settore è andato ben oltre il tentativo di rivoluzionare il funzionamento degli smartphone. Con i cellulari ormai diventati una commodity, l'innovazione a portata di mano oggi risiede nelle app che li supportano e, per competere, i fornitori di smartphone devono mantenere un ecosistema che inviti gli sviluppatori a partecipare.

A meno di tre anni dal lancio di ChatGPT, il settore dell'intelligenza artificiale si trova su un precipizio simile. Ogni attore del settore globale dell'intelligenza artificiale sta puntando a far sì che i propri modelli diventino il prossimo Android o persino iOS, e con l'adozione dell'open source con i modelli DeepSeek, ERNIE 4.5 e Kimi K2, gli innovatori cinesi stanno cercando di affermarsi in un ecosistema in rapida crescita.

Sebbene questo possa giocare a loro favore, tuttavia, non favorisce la vera trasparenza dell'open source che è stata essenziale non solo per generare innovazione, ma per generare innovazione di cui possiamo fidarci.

I dati sono il tassello mancante nella maggior parte delle AI open source

Con modelli di intelligenza artificiale molto più complessi da creare e condividere rispetto ai software tradizionali, la richiesta di un'intelligenza artificiale completamente open source non è cosa da poco. Invece di un semplice codice sorgente, i sistemi di intelligenza artificiale sono composti da sette componenti—inclusi il codice sorgente, i parametri del modello, il set di dati, gli iperparametri, il codice sorgente di addestramento, la generazione di numeri casuali e i framework software.

Ogni componente deve funzionare in sinergia affinché un modello fornisca i risultati desiderati, il che significa che gli sviluppatori hanno bisogno di piena visibilità per condividere, modificare e adottare un sistema e comprenderne le dinamiche. Tuttavia, poiché la riproducibilità è il fondamento del metodo scientifico, il settore dell'intelligenza artificiale ha... abitudine di usare il termine open source per riferirsi a versioni gratuite o a basso prezzo che vengono rese disponibili con accesso ad alcuni pezzi del puzzle.

Baidu, ad esempio, ha reso disponibili gratuitamente dieci modelli ERNIE 4.5. Oltre a condividere il modello e i parametri, l'azienda ha anche reso open source ERNIEKit e i toolkit di distribuzione FastDeploy. Questi consentono agli sviluppatori di creare potenti applicazioni di intelligenza artificiale fornendo funzionalità di livello industriale, flussi di lavoro di formazione e inferenza efficienti in termini di risorse e compatibilità multi-hardware.

In altre parole, Baidu ha fornito agli sviluppatori strumenti interessanti che consentono loro di dare sfogo all'innovazione più rapidamente, il che, sperano, li invoglierà a sua volta a scegliere ERNIE 4.5 rispetto alla concorrenza.

Tuttavia, agli sviluppatori che sfruttano ERNIE 4.5 viene chiesto di fidarsi ciecamente del modello, perché Baidu ha tenuto nascosto molto, compresi i set di dati che informano e insegnano i suoi modelli.

La potenza dei modelli di intelligenza artificiale open source trasparenti

Sebbene ogni pezzo del puzzle dell'intelligenza artificiale sia fondamentale per far funzionare un modello, L'80% dei progetti di intelligenza artificiale fallisce e i dati sono al centro del problemaSet di dati imprecisi, incompleti e distorti portano a modelli che non si comportano in modo prevedibile o come desiderato.

. video pubblicato di recente dell'incidente mortale della Tesla Full-Self-Driving (FSD) del 2023, ad esempio, ha esposto lo scenario peggiore di ciò che può accadere quando un set di dati e un modello non sono all'altezza. Mentre la Tesla Model Y sfrecciava verso un sole splendente al tramonto, il sistema parzialmente automatizzato non riusciva a comprendere o reagire in modo appropriato a ciò che le sue telecamere stavano vedendo, o non vedendo. Mentre le auto guidate da esseri umani rallentavano e si fermavano, la confusione del FSD ha causato la morte di una donna.

Questo fallimento devastante è dovuto a dati visivi incompleti, nonché alla mancanza di un meccanismo di sicurezza che tenga conto di tali punti ciechi. Quando gli sviluppatori non hanno una visione d'insieme dei propri dati, non possono vedere come interagiscono con il modello, il che significa che non possono scoprire tali errori e iterare per ottenere prestazioni affidabili.

Ancora più preoccupante è il fatto che, senza i dati che alimentano il modello, sono costretti a fidarsi ciecamente.

Tuttavia, quando i set di dati sono open source, la comunità dell'intelligenza artificiale ha dimostrato di poter sradicare problemi preoccupanti, come ha fatto scoprendo oltre 1,000 URL contenenti materiale verificato di abusi sessuali su minori in LAION 5BPoiché il set di dati utilizzato per i modelli di generazione di testo in immagini tramite intelligenza artificiale è fondamentale per la creazione di app come Stable Diffusion e Midjourney, sarebbe stato devastante per il settore dell'intelligenza artificiale se gli utenti avessero iniziato a produrre immagini fotorealistiche illecite. Invece, la natura aperta di questo set di dati ha permesso alla comunità di scoprire i contenuti pericolosi e di motivare una correzione, Liaison B.

Inoltre, gran parte di quel primo set di dati si basava sul web scraping eseguito dall'enorme Common Crawl, che è stato sfruttato anche per i modelli ChatGPT e LLAMA. Anche se I crawler AI continuano a sollevare preoccupazioni in merito a copywriting, privacy ed etichette parziali e razziste, tuttavia, gli sviluppatori nella comunità dell'IA sono stiamo lavorando su come ripulire parti del crescente set di dati open source di Common Crawl per un utilizzo più sicuro.

Poiché gli sviluppatori mirano non solo a creare un'intelligenza artificiale potente, ma anche un'intelligenza artificiale di cui possiamo fidarci, sia gli utenti che il settore sono tutelati dalla trasparenza e dalla collaborazione del vero open source.

Abbracciare il percorso open source

Nonostante molti siano ancora diffidenti nei confronti di questa tecnologia in rapida crescita, la corsa per diventare l'iOS o l'Android dei grandi modelli di intelligenza artificiale è in corso. E mentre la comunità globale dell'intelligenza artificiale sta letteralmente costruendo quello che diventerà lo standard per il futuro e i sistemi di intelligenza artificiale stanno già guidando le auto e offrendo valutazioni mediche, creare fiducia creando un'intelligenza artificiale imparziale, affidabile e sicura non è mai stato così importante.

Mentre la comunità cinese dell'IA cerca di posizionarsi come paladina dell'innovazione aperta, la strada verso un'IA sicura si trova solo nella trasparenza del vero open source, comprovata da decenni di innovazione software. Applicare il termine a sistemi che non condividono elementi critici come i dati non consente agli sviluppatori di indagare, replicare e iterare. Sebbene il fascino di modelli facilmente reperibili come DeepSeek, ERNIE 4.5, Kimi K2 e Qwen3 sia innegabile, gli sviluppatori che li sfruttano barattano la trasparenza che favorisce la collaborazione e l'innovazione con la praticità.

La comunità dell'intelligenza artificiale deve scegliere: adottare una trasparenza radicale attraverso un vero open source, oppure rischiare di costruire i sistemi critici di domani sulle scatole nere di oggi.

Il Dott. Jason Corso è co-fondatore e Direttore Scientifico presso voxel51, e professore di Robotica e Ingegneria Elettrica e Informatica presso l'Università del Michigan. Veterano nel campo della visione artificiale, il Dott. Corso ha dedicato oltre 20 anni alla ricerca accademica nei campi della comprensione video, della robotica e della scienza dei dati.