Seguici sui social

Recensione del libro: The Thinking Machine: Jensen Huang, NVIDIA e il microchip più ambito al mondo di Stephen Witt

Book Reviews

Recensione del libro: The Thinking Machine: Jensen Huang, NVIDIA e il microchip più ambito al mondo di Stephen Witt

mm

La macchina pensante: Jensen Huang, NVIDIA e il microchip più ambito al mondo si distingue dalla maggior parte dei libri scritti sull'intelligenza artificiale perché affronta l'argomento da una prospettiva che molti lettori esperti in materia tecnica, me compreso, hanno storicamente sottovalutato.

Come molte persone che seguono l'intelligenza artificiale da anni, la mia comprensione del campo è stata plasmata da traguardi familiari. La storia di solito inizia in 1956 con l'officina di Dartmouth, si muove attraverso i primi sistemi simbolici, poi salta in avanti verso momenti epocali come quello di IBM Deep Blue sconfigge Garry Kasparov, DeepMind padroneggia Goe, più recentemente, OpenAI, che ha dimostrato come modelli linguistici di grandi dimensioni possano coordinare la strategia in ambienti multigiocatore complessi. Questi momenti sono intellettualmente appaganti e facili da ricordare perché si concentrano su vittorie visibili.

Ciò che il libro di Stephen Witt fa eccezionalmente bene è sfidare questa inquadratura. Invece di concentrarsi sui momenti in cui l'intelligenza artificiale ha impressionato il mondo, La macchina pensante Si concentra sullo strato meno visibile che sta dietro a questi risultati. Sostiene, in modo convincente, che l'era moderna dell'intelligenza artificiale non è stata inaugurata principalmente da idee brillanti, ma da un cambiamento fondamentale nel modo in cui l'elaborazione stessa veniva eseguita.

Concentrando la narrazione su NVIDIA (NVDA -0.58%) e il suo co-fondatore Jensen Huang, Witt riformula la rivoluzione dell'intelligenza artificiale come una storia di architettura informatica, ecosistemi di sviluppatori e convinzioni a lungo termine. Il risultato non è solo una biografia aziendale, ma un capitolo mancante nella più ampia storia dell'intelligenza artificiale.

Dai videogiochi a un nuovo paradigma informatico

Gli inizi di NVIDIA sono ben lontani dalle ambizioni elevate oggi associate all'intelligenza artificiale. L'azienda è emerso nel 1993 Come produttore di chip grafici, si concentrò sulla realizzazione di mondi di videogiochi sempre più realistici. La sfida all'epoca non era l'intelligenza artificiale, ma la velocità. I ​​giochi richiedevano l'esecuzione istantanea di un gran numero di calcoli per simulare luce, movimento e profondità.

La soluzione perseguita da NVIDIA è stata calcolo parallelo. Il calcolo parallelo significa eseguire molti calcoli contemporaneamente anziché eseguirli in sequenza. Invece di affidarsi a un singolo core potente che elabora un'istruzione dopo l'altra, le GPU utilizzano migliaia di core più piccoli che lavorano simultaneamente su operazioni matematiche simili. Questo approccio è particolarmente efficace per carichi di lavoro che comportano la ripetizione degli stessi calcoli su grandi set di dati.

Originariamente, questa architettura era stata concepita per la grafica. Eppure Witt mostra come questa decisione abbia silenziosamente creato le basi ideali per le reti neurali decenni dopo. L'addestramento dei moderni modelli di intelligenza artificiale comporta un numero enorme di operazioni matematiche identiche applicate a enormi quantità di dati. Le GPU erano già ottimizzate esattamente per quel tipo di lavoro.

Ciò che rende questa parte del libro avvincente è la chiarezza con cui Witt collega le scelte di progettazione tecnica alla sopravvivenza. NVIDIA non ha scelto il calcolo parallelo perché prevedeva l'intelligenza artificiale. Lo ha scelto perché era l'unico modo per competere nella grafica in tempo reale. Questa necessità ha costretto l'azienda a padroneggiare un modello di calcolo che si sarebbe poi rivelato rivoluzionario ben oltre il gaming.

Jensen Huang e il pensiero in termini di sistemi, non di prodotti

Al centro di questa storia c'è Jensen Huang, ritratto non come un dirigente convenzionale, ma come qualcuno che ha sempre pensato in termini di sistemi piuttosto che di singoli prodotti. Witt presenta Huang come esigente, intenso e spesso difficile, ma anche straordinariamente coerente nel suo modo di concepire la tecnologia nel lungo periodo.

Mentre i concorrenti trattavano le GPU come componenti monouso legati ai cicli di gioco, Huang le considerava il fondamento di una piattaforma informatica più ampia. Questa distinzione diventa critica. I prodotti vengono sostituiti. Le piattaforme si arricchiscono.

Internamente, NVIDIA rifletteva questa mentalità. Gli ingegneri venivano incoraggiati a pensare con anni di anticipo. Il software veniva considerato strategicamente importante quanto il silicio. Gli investimenti in strumenti e supporto agli sviluppatori venivano effettuati molto prima che la domanda fosse chiara. Molte di queste scelte apparivano eccessive o inutili all'epoca. Col senno di poi, creavano un fossato che i concorrenti faticavano a superare.

Witt chiarisce che l'ascesa di NVIDIA non era inevitabile. L'azienda ha sfiorato il fallimento più di una volta. Ciò che l'ha spinta avanti non è stata una singola svolta, ma la convinzione costante che l'elaborazione accelerata avrebbe finito per avere un impatto ben oltre il suo caso d'uso originale.

CUDA e la storia delle origini dell'intelligenza artificiale che molti si sono persi

Uno dei contributi più importanti di La macchina pensante è il modo in cui riformula il ruolo del CUDA nella storia dell'intelligenza artificiale.

Prima di leggere questo libro, è facile pensare a CUDA semplicemente come uno strumento di sviluppo di successo. Witt mostra perché merita molta più attenzione. CUDA è stato creato per rendere il calcolo parallelo utilizzabile al di fuori della grafica. Prima di CUDA, l'utilizzo delle GPU per il calcolo generale richiedeva di forzare i problemi attraverso interfacce specifiche per la grafica. Questo era fragile, inefficiente e limitato agli specialisti.

CUDA cambiò questa situazione, consentendo agli sviluppatori di programmare le GPU utilizzando modelli di programmazione familiari. Migliaia di core di elaborazione divennero accessibili come risorsa comune. Ciò abbassò la barriera d'ingresso per l'elaborazione ad alte prestazioni in un modo che pochi all'epoca apprezzarono appieno.

È qui che il libro ha trovato una forte risonanza nella mia esperienza di apprendimento della storia dell'intelligenza artificiale. La narrazione che ho assimilato si è concentrata principalmente su modelli e algoritmi. Cosa La macchina pensante chiarisce che molte di queste idee sono diventate pratiche solo quando i ricercatori hanno potuto effettivamente applicarle su larga scala.

I ricercatori di intelligenza artificiale hanno rapidamente riconosciuto che le reti neurali erano una soluzione quasi perfetta per il calcolo parallelo. L'addestramento prevede la ripetizione delle stesse operazioni su grandi set di dati, modificando milioni o miliardi di parametri nel tempo. CUDA ha permesso che questo processo avvenisse in modo più rapido, economico e affidabile di quanto avrebbero mai potuto fare le CPU.

Ciò è diventato particolarmente importante con l'accelerazione del deep learning e, in seguito, con l'emergere di modelli basati sui trasformatori. I trasformatori prosperano su larga scala. Senza l'accelerazione GPU, molti dei modelli che definiscono l'attuale panorama dell'intelligenza artificiale sarebbero rimasti teorici o eccessivamente costosi. CUDA non ha inventato queste architetture, ma ne ha reso possibile la rapida evoluzione.

Ciò che Witt coglie particolarmente bene è che questo risultato non era stato pianificato in modo esaustivo. CUDA è stato progettato per l'informatica scientifica. I ricercatori di intelligenza artificiale ne hanno scoperto la potenza e hanno trascinato NVIDIA al centro della corsa all'intelligenza artificiale.

Infrastruttura sugli algoritmi

Una delle intuizioni più preziose del libro è che il progresso dell'intelligenza artificiale è limitato tanto dalle infrastrutture quanto dalle idee. Molti resoconti popolari si concentrano su algoritmi, tecniche di addestramento e set di dati. La macchina pensante ricorda al lettore che nessuna di queste cose ha importanza senza un calcolo adeguato.

Da questa prospettiva, il boom dell'intelligenza artificiale moderna appare meno improvviso e più ritardato. Le reti neurali esistono da decenni. Ciò che è cambiato è stata la disponibilità di hardware in grado di addestrarle su larga scala.

NVIDIA non si è limitata a fornire chip più veloci. Ha creato un ecosistema di hardware, librerie software e strumenti per sviluppatori che si sono rafforzati a vicenda nel tempo. Man mano che i ricercatori ottimizzavano il loro lavoro per le piattaforme NVIDIA, NVIDIA ha perfezionato i suoi prodotti per supportare al meglio i carichi di lavoro di intelligenza artificiale. Questo ciclo di feedback ha creato un vantaggio duraturo che si estendeva ben oltre le prestazioni pure e semplici.

Il libro sottolinea discretamente una realtà che oggi è sempre più evidente: la leadership nell'intelligenza artificiale è determinata dalle catene di fornitura, dalla capacità produttiva, dagli ecosistemi software e dal controllo della piattaforma, non solo dalla brillantezza della ricerca.

Visione, rischio e conseguenze aggravanti

Witt non si sottrae alle implicazioni del predominio di NVIDIA. Man mano che l'azienda diventa fondamentale per l'infrastruttura globale di intelligenza artificiale, la sua influenza cresce di conseguenza. La convinzione di Jensen Huang che l'elaborazione accelerata definirà la prossima fase del progresso tecnologico percorre l'intero libro.

Invece di moralizzare, La macchina pensante si concentra su come la coerenza nelle decisioni ingegneristiche e strategiche si sia consolidata nel tempo. NVIDIA non ha vinto inseguendo le tendenze. Ha vinto impegnandosi fin da subito nel calcolo parallelo, resistendo ai ripetuti cicli di mercato e investendo incessantemente negli strumenti che hanno reso il suo hardware indispensabile.

Per i lettori che desiderano comprendere come l'intelligenza artificiale sia realmente cresciuta

Per i lettori che già conoscono i momenti salienti di Storia dell'intelligenza artificialeQuesto libro colma lo strato mancante sotto di esse. Spiega perché quelle innovazioni sono state scalabili quando lo sono state, e perché NVIDIA è emersa come una forza così centrale in questo processo.

Questo è un libro per lettori che desiderano comprendere l'intelligenza artificiale come un sistema industriale piuttosto che come un insieme di modelli intelligenti. Troverà un forte riscontro in coloro che sono interessati a chip, data center e alle decisioni ingegneristiche spesso invisibili che plasmano silenziosamente il potere tecnologico.

La macchina pensante ha successo perché riformula la storia dell'intelligenza artificiale da zero, mostrando come il calcolo parallelo, le piattaforme di sviluppo e la visione a lungo termine abbiano costituito le fondamenta su cui oggi si fonda l'intelligenza artificiale moderna.

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.