Connect with us

Bokanmeldelse: The Thinking Machine: Jensen Huang, NVIDIA, og verdens mest ettertrakte mikrochip av Stephen Witt

Bokanmeldelser

Bokanmeldelse: The Thinking Machine: Jensen Huang, NVIDIA, og verdens mest ettertrakte mikrochip av Stephen Witt

mm

The Thinking Machine: Jensen Huang, NVIDIA, og verdens mest ettertrakte mikrochip skiller seg ut fra de fleste bøker skrevet om kunstig intelligens fordi den nærmer seg emnet fra en retning som mange teknisk kyndige lesere, inkludert meg selv, historisk sett har undervurdert.

Liksom mange mennesker som har fulgt AI i årevis, var min forståelse av feltet formet av kjente milepæler. Historien begynner vanligvis i 1956 med Dartmouth-workshoppen, går gjennom tidlige symbolske systemer, og deretter hopper frem til landemerker som IBM sin Deep Blue som beseiret Garry Kasparov, DeepMind som behersket Go, og mer nylig OpenAI som viste at store språkmodeller kan koordinere strategi i komplekse multiplayer-miljøer. Disse øyeblikkene er intellektuelt tilfredsstillende og enkle å huske fordi de fokuserer på synlige seiere.

Hva Stephen Witts bok gjør eksepsjonelt bra er å utfordre denne rammen. I stedet for å fokusere på øyeblikkene da AI imponerte verden, fokuserer The Thinking Machine på det mindre synlige laget under disse prestasjonene. Den argumenterer, overbevisende, at den moderne AI-æraen ikke ble låst opp primært av clevere ideer alene, men av en grunnleggende endring i hvordan beregningene selv ble utført.

Ved å sentrere fortellingen rundt NVIDIA (NVDA +0.61%) og dens medgrunnlegger Jensen Huang, reframerer Witt AI-revolusjonen som en historie om datamaskinarkitektur, utvikler-økosystemer og langvarig overbevisning. Resultatet er ikke bare en korporativ biografi, men et manglende kapittel i den bredere historien om kunstig intelligens.

Fra videospill til et nytt datamaskinparadigme

NVIDIA sitt opphav er langt fjernet fra de høye ambisjonene som nå er forbundet med kunstig intelligens. Selskapet oppstod i 1993 som en grafikkprosessorprodusent, fokusert på å rendre stadig mer realistiske videospillverdener. Utfordringen på den tiden var ikke intelligens, men hastighet. Spillene krevde enorme mengder beregninger som skulle utføres øyeblikkelig for å simulere lys, bevegelse og dybde.

Løsningen NVIDIA fulgte var parallell beregning. Parallell beregning betyr å utføre mange beregninger samtidig i stedet for å utføre dem sekvensielt. I stedet for å stole på en enkelt kraftig prosessor som utfører en instruksjon etter en annen, bruker GPU-er tusenvis av mindre prosessorer som arbeider samtidig på lignende matematiske operasjoner. Dette tilnærmingen er spesielt kraftig for arbeidsbyrder som involverer å gjenta de samme beregningene over store datamengder.

Opprinnelig var denne arkitekturen bygget for grafikk. Likevel viser Witt hvordan dette valget stille og rolig skapte den ideelle grunnlaget for neurale nettverk tiår senere. Trening av moderne AI-modeller innebærer massive mengder identiske matematiske operasjoner som blir brukt over enorme datamengder. GPU-er var allerede optimert for nettopp denne type arbeid.

Hva gjør denne delen av boken kompelling er hvordan tydelig Witt kobler tekniske designvalg til overlevelse. NVIDIA valgte ikke parallell beregning fordi de forutså kunstig intelligens. De valgte det fordi det var den eneste måten å konkurrere i sanntid grafikk. Denne nødvendigheten tvang selskapet til å mestre en datamaskinmodell som senere ville vise seg å være transformasjonell langt utenfor spill.

Jensen Huang og tenkning i systemer, ikke produkter

I sentrum av denne historien er Jensen Huang, portrettert ikke som en konvensjonell leder, men som noen som konsistent tenkte i systemer i stedet for enkeltprodukter. Witt presenterer Huang som en krevende, intens og ofte vanskelig person, men også merkelig konsistent i hvordan han så på teknologi over lange perioder.

Mens konkurrenter behandlet GPU-er som utbyttable komponenter knyttet til spill-sykluser, behandlet Huang dem som grunnlaget for en bredere datamaskinplattform. Denne distinksjonen blir kritisk. Produkter blir erstattet. Plattformer akkumulerer.

Internt reflekterte NVIDIA denne holdningen. Ingeniører ble oppmuntret til å tenke år fremover. Programvare ble behandlet som like strategisk viktig som silisium. Investeringer ble gjort i verktøy og utviklerstøtte lenge før det var tydelig etterspørsel. Mange av disse valgene virket unødvendige eller overflødige på den tiden. I etterkant skapte de en grav som konkurrenter hadde vanskelig å krysse.

Witt gjør det klart at NVIDIA sitt oppsving ikke var uunngåelig. Selskapet kom nær å mislykkes mer enn en gang. Hva førte det fremover var ikke et enkelt gjennombrudd, men en vedvarende overbevisning om at akselerert beregning til slutt ville bli viktig langt utenfor dens opprinnelige bruksområde.

CUDA og AI-opprinnelseshistorien mange gikk glipp av

En av de viktigste bidragene til The Thinking Machine er hvordan den omdefinierer CUDA sitt rolle i AI-historien.

Før jeg leste denne boken, var det lett å tenke på CUDA som bare et vellykket utviklerverktøy. Witt viser hvorfor det fortjener langt mer oppmerksomhet. CUDA ble skapt for å gjøre parallell beregning brukbar utenfor grafikk. Før CUDA, krevde bruk av GPU-er for generell beregning å tvinge problemer gjennom grafikk-spesifikke grensesnitt. Dette var skjørt, ineffektivt og begrenset til spesialister.

CUDA endret dette ved å tillate utviklere å programmere GPU-er med kjente programmeringsmodeller. Tusenvis av beregningskjerne ble tilgjengelig som en generell ressurs. Dette senket terskelen for inngang til høy-ytelsesberegning på en måte som få mennesker fullt ut verdsettet på den tiden.

Dette er der boken sterkt resonerte med min egen erfaring av å lære AI-historie. Narrativen jeg absorberte, fokuserte tungt på modeller og algoritmer. Hva The Thinking Machine gjør klart er at mange av disse idéene bare ble praktiske når forskere kunne faktisk trene dem i stor skala.

AI-forskere erkjente raskt at neurale nettverk var en nesten perfekt match for parallell beregning. Trening innebærer å gjenta de samme operasjonene over store datamengder, justering av millioner eller milliarder av parametre over tid. CUDA tillot denne prosessen å skje raskere, billigere og mer pålitelig enn CPU-er noen gang kunne.

Dette ble spesielt viktig da dypt læring akselererte og senere da transformer-baserte modeller oppstod. Transformatorer trives på skala. Uten GPU-akselerasjon ville mange av modellene som definerer dagens AI-landskap ha forblitt teoretiske eller uforholdsmessig dyre. CUDA oppfant ikke disse arkitekturer, men gjorde deres raske evolusjon mulig.

Hva Witt fanger spesielt bra er at denne utfallet ikke var fullstendig planlagt. CUDA ble bygget for vitenskapelig beregning. AI-forskere oppdaget dens kraft og trakk NVIDIA inn i sentrum av AI-kappløpet.

Infrastruktur over algoritmer

En av bokens mest verdifulle innsikter er at AI-fremgang er begrenset like mye av infrastruktur som av ideer. Mange populære beretninger fokuserer på algoritmer, treningstricks og datamengder. The Thinking Machine minner leseren på at ingen av disse tingene teller uten tilstrekkelig beregningskraft.

Fra dette perspektivet, ser den moderne AI-boomen ut til å være mindre plutselig og mer forsinket. Neurale nettverk har eksistert i tiår. Hva endret seg, var tilgjengeligheten av maskinvare i stand til å trene dem i meningsfull skala.

NVIDIA tilbød ikke bare raskere prosessorer. De bygget et økosystem av maskinvare, programvarebiblioteker og utviklerverktøy som forsterket hverandre over tid. Etterhvert som forskere optimerte sitt arbeid for NVIDIA-plattformer, forbedret NVIDIA sine produkter til å bedre tjene AI-arbeidsbyrder. Denne tilbakemeldingsløkken skapte en varig fordelt som strakk seg langt utenfor ren ytelse.

Boken understreker stille en realitet som er stadig mer åpenbar i dag: lederskap i AI formas av forsyningskjeder, produksjonskapasitet, programvareøkosystemer og plattformkontroll, ikke bare forskningsbrillians.

Visjon, risiko og kumulative konsekvenser

Witt unngår ikke implikasjonene av NVIDIA sitt dominans. Etterhvert som selskapet blir grunnleggende for global AI-infrastruktur, vokser dens innflytelse i takt.

I stedet for å moralisere, The Thinking Machine fokuserer på hvordan konsistente ingeniør- og strategiske beslutninger kumulerte over tid. NVIDIA vant ikke ved å jage trender. De vant ved å binde seg til parallell beregning, tåle gjentakende markedsykler og investere urent i verktøyene som gjorde deres maskinvare uunnværlig.

For lesere som ønsker å forstå hvordan AI virkelig skala

For lesere som allerede kjenner de store øyeblikkene i AI-historie, fyller denne boken inn det manglende laget under dem. Den forklarer hvorfor disse gjennombruddene kunne skala når de gjorde, og hvorfor NVIDIA oppstod som en så sentral kraft i prosessen.

Dette er en bok for lesere som ønsker å forstå kunstig intelligens som et industrielt system i stedet for en samling av clevere modeller. Den vil resonere sterkt med de som er interessert i prosessorer, datacenter og de ofte usynlige ingeniørbeslutningene som stille og rolig formerer teknologisk makt.

The Thinking Machine lykkes fordi den omdefinierer AI-historien fra bunnen av, og viser hvordan parallell beregning, utviklerplattformer og langvarig visjon bygget grunnlaget som moderne kunstig intelligens nå står på.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.