Følg os

Boganmeldelser

Boganmeldelse: Den tænkende maskine: Jensen Huang, NVIDIA og verdens mest eftertragtede mikrochip af Stephen Witt

mm

Tænkemaskinen: Jensen Huang, NVIDIA og verdens mest eftertragtede mikrochip skiller sig ud fra de fleste bøger skrevet om kunstig intelligens, fordi den griber emnet an fra en retning, som mange teknisk kyndige læsere, inklusive mig selv, historisk set har undervægtet.

Ligesom mange andre, der har fulgt AI i årevis, blev min forståelse af feltet formet af velkendte milepæle. Historien begynder normalt i 1956 med Dartmouth-værkstedet, bevæger sig gennem tidlige symbolske systemer og springer derefter frem til skelsættende øjeblikke som IBMs Deep Blue besejrer Garry Kasparov, DeepMind-mastering Go, og for nylig OpenAI, der demonstrerer, at store sprogmodeller kan koordinere strategi i komplekse multiplayer-miljøer. Disse øjeblikke er intellektuelt tilfredsstillende og lette at huske, fordi de fokuserer på synlige sejre.

Det, Stephen Witts bog gør exceptionelt godt, er at udfordre den framing. I stedet for at fokusere på øjeblikke, hvor AI imponerede verden, Den tænkende maskine fokuserer på det mindre synlige lag under disse præstationer. Den argumenterer overbevisende for, at den moderne AI-æra ikke primært blev åbnet op af smarte idéer alene, men af ​​et fundamentalt skift i, hvordan selve beregningen blev udført.

Ved at fokusere fortællingen på NVIDIA (NVDA + 0.47%) og dens medstifter Jensen Huang, omformulerer Witt AI-revolutionen til en historie om computerarkitektur, udviklernes økosystemer og langvarig overbevisning. Resultatet er ikke blot en virksomhedsbiografi, men et manglende kapitel i den bredere historie om kunstig intelligens.

Fra videospil til et nyt computerparadigme

NVIDIAs begyndelse er langt fra de høje ambitioner, der nu er forbundet med kunstig intelligens. Virksomheden opstod i 1993 som grafikchipproducent, fokuseret på at gengive stadig mere realistiske videospilverdener. Udfordringen på det tidspunkt var ikke intelligens, men hastighed. Spil krævede et stort antal beregninger, der skulle udføres øjeblikkeligt for at simulere lys, bevægelse og dybde.

Løsningen, som NVIDIA forfulgte, var parallel computing. Parallel databehandling betyder at udføre mange beregninger på samme tid i stedet for at udføre dem sekventielt. I stedet for at stole på en enkelt kraftig kerne, der behandler den ene instruktion efter den anden, bruger GPU'er tusindvis af mindre kerner, der arbejder samtidigt på lignende matematiske operationer. Denne tilgang er især effektiv til arbejdsbelastninger, der involverer gentagelse af de samme beregninger på tværs af store datasæt.

Oprindeligt var denne arkitektur bygget til grafik. Alligevel viser Witt, hvordan denne beslutning stille og roligt skabte det ideelle fundament for neurale netværk årtier senere. Træning af moderne AI-modeller involverer et enormt antal identiske matematiske operationer, der anvendes på tværs af enorme mængder data. GPU'er var allerede optimeret til præcis den slags arbejde.

Det, der gør denne del af bogen fængslende, er hvor tydeligt Witt forbinder tekniske designvalg med overlevelse. NVIDIA valgte ikke parallel computing, fordi de forudså kunstig intelligens. De valgte det, fordi det var den eneste måde at konkurrere på inden for realtidsgrafik. Denne nødvendighed tvang virksomheden til at mestre en computermodel, der senere skulle vise sig at være transformerende langt ud over spil.

Jensen Huang og tænkning i systemer, ikke produkter

I centrum af denne historie står Jensen Huang, der ikke portrætteres som en konventionel leder, men som en person, der konsekvent tænkte i systemer snarere end individuelle produkter. Witt fremstiller Huang som krævende, intens og ofte vanskelig, men også bemærkelsesværdigt konsekvent i, hvordan han betragtede teknologi over lange perioder.

Mens konkurrenterne behandlede GPU'er som engangskomponenter knyttet til spilcyklusser, behandlede Huang dem som fundamentet for en bredere computerplatform. Denne sondring bliver afgørende. Produkter udskiftes. Platforme sammensættes.

Internt afspejlede NVIDIA denne tankegang. Ingeniører blev opfordret til at tænke år frem. Software blev behandlet som strategisk vigtig som silicium. Der blev investeret i værktøjer og udviklersupport længe før der var en klar efterspørgsel. Mange af disse valg virkede overdrevne eller unødvendige på det tidspunkt. I bakspejlet skabte de en voldgrav, som konkurrenterne kæmpede med at overvinde.

Witt gør det klart, at NVIDIAs fremgang ikke var uundgåelig. Virksomheden var tæt på at konkursere mere end én gang. Det, der bragte den fremad, var ikke et enkelt gennembrud, men en vedvarende tro på, at accelereret databehandling i sidste ende ville betyde langt mere end dens oprindelige anvendelse.

CUDA og AI'ens oprindelseshistorie, som mange oversĂĄ

Et af de vigtigste bidrag fra Den tænkende maskine er hvordan det omformulerer CUDAs rolle i AI's historie.

Før man læser denne bog, er det nemt at tænke på CUDA som blot et succesfuldt udviklerværktøj. Witt viser, hvorfor det fortjener langt mere opmærksomhed. CUDA blev skabt for at gøre parallel databehandling brugbar uden for grafik. Før CUDA krævede brugen af ​​GPU'er til generel beregning, at problemer blev tvunget gennem grafikspecifikke grænseflader. Dette var skrøbeligt, ineffektivt og begrænset til specialister.

CUDA ændrede dette ved at give udviklere mulighed for at programmere GPU'er ved hjælp af velkendte programmeringsmodeller. Tusindvis af computerkerner blev tilgængelige som en generel ressource. Dette sænkede adgangsbarrieren til højtydende databehandling på en måde, som få mennesker fuldt ud forstod på det tidspunkt.

Det var her, bogen stærkt resonerede med min egen erfaring med at lære om AI's historie. Den fortælling, jeg absorberede, fokuserede i høj grad på modeller og algoritmer. Den tænkende maskine Det, der gør det klart, er, at mange af disse idéer først blev praktiske, da forskerne rent faktisk kunne træne dem i stor skala.

AI-forskere indså hurtigt, at neurale netværk var et næsten perfekt match til parallel databehandling. Træning involverer at gentage de samme operationer på tværs af store datasæt og justere millioner eller milliarder af parametre over tid. CUDA gjorde det muligt for denne proces at ske hurtigere, billigere og mere pålideligt end CPU'er nogensinde kunne.

Dette blev især vigtigt i takt med at deep learning accelererede, og senere da transformerbaserede modeller dukkede op. Transformere trives i stor skala. Uden GPU-acceleration ville mange af de modeller, der definerer nutidens AI-landskab, være forblevet teoretiske eller uoverkommeligt dyre. CUDA opfandt ikke disse arkitekturer, men det gjorde deres hurtige udvikling mulig.

Det, Witt indfanger særligt godt, er, at dette resultat ikke var fuldt planlagt. CUDA blev bygget til videnskabelig databehandling. AI-forskere opdagede dens kraft og trak NVIDIA ind i centrum af AI-kapløbet.

Infrastruktur frem for algoritmer

En af bogens mest værdifulde indsigter er, at AI-fremskridt er begrænset lige så meget af infrastruktur som af ideer. Mange populære beretninger fokuserer på algoritmer, træningstricks og datasæt. Den tænkende maskine minder læseren om, at ingen af ​​disse betyder noget uden tilstrækkelig beregning.

Fra dette perspektiv, den moderne AI-boom virker mindre pludselige og mere forsinkede. Neurale netværk eksisterede i årtier. Det, der ændrede sig, var tilgængeligheden af ​​hardware, der var i stand til at træne dem i en meningsfuld skala.

NVIDIA leverede ikke blot hurtigere chips. De opbyggede et økosystem af hardware, softwarebiblioteker og udviklerværktøjer, der forstærkede hinanden over tid. Efterhånden som forskere optimerede deres arbejde til NVIDIA-platforme, forfinede NVIDIA sine produkter for bedre at kunne håndtere AI-arbejdsbelastninger. Denne feedback-loop skabte en varig fordel, der strakte sig langt ud over rå ydeevne.

Bogen understreger stille og roligt en virkelighed, der er stadig mere tydelig i dag: Lederskab inden for AI formes af forsyningskæder, produktionskapacitet, softwareøkosystemer og platformkontrol, ikke kun forskningsmæssig genialitet.

Vision, risiko og sammensatte konsekvenser

Witt viger ikke tilbage fra konsekvenserne af NVIDIAs dominans. Efterhånden som virksomheden bliver fundamental for global AI-infrastruktur, vokser dens indflydelse tilsvarende. Jensen Huangs overbevisning om, at accelereret databehandling vil definere den næste fase af teknologiske fremskridt, gennemsyrer bogen.

I stedet for at moralisere, Den tænkende maskine fokuserer på, hvordan konsistente tekniske og strategiske beslutninger blev forstærket over tid. NVIDIA vandt ikke ved at jagte trends. De vandt ved tidligt at satse på parallel databehandling, udholde gentagne markedscyklusser og investere utrætteligt i de værktøjer, der gjorde deres hardware uundværlig.

For læsere, der ønsker at forstå, hvordan AI virkelig skaleres

For læsere, der allerede kender overskrifterne AI-historie, udfylder denne bog det manglende lag under dem. Den forklarer, hvorfor disse gennembrud kunne skaleres, når de gjorde, og hvorfor NVIDIA fremstod som en så central kraft i processen.

Dette er en bog for læsere, der ønsker at forstå kunstig intelligens som et industrielt system snarere end en samling af smarte modeller. Den vil give stærk genklang hos dem, der er interesserede i chips, datacentre og de ofte usynlige ingeniørbeslutninger, der stille og roligt former teknologisk magt.

Den tænkende maskine lykkes, fordi den omformulerer AI-historien fra bunden og viser, hvordan parallel databehandling, udviklerplatforme og langsigtet vision byggede fundamentet, som moderne kunstig intelligens nu står på.

Antoine er en visionær leder og grundlægger af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for kunstig intelligens og robotteknologi. Som serieiværksætter mener han, at kunstig intelligens vil være lige så forstyrrende for samfundet som elektricitet, og han bliver ofte fanget i at begejstre for potentialet i forstyrrende teknologier og AGI.

Som en fremtidsforsker, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han stifter af Værdipapirer.io, en platform fokuseret på at investere i banebrydende teknologier, der omdefinerer fremtiden og omformer hele sektorer.