Recenzje książek
Recenzja książki: Maszyna myśląca: Jensen Huang, NVIDIA i najbardziej pożądany mikroprocesor na świecie autorstwa Stephena Witta

Myśląca maszyna: Jensen Huang, NVIDIA i najbardziej pożądany na świecie mikroprocesor wyróżnia się na tle większości książek poświęconych sztucznej inteligencji, ponieważ podchodzi do tematu z perspektywy, którą wielu czytelników obeznanych z technologią, łącznie ze mną, historycznie niedoceniało.
Podobnie jak wiele osób śledzących sztuczną inteligencję od lat, moje rozumienie tej dziedziny ukształtowały znane kamienie milowe. Historia zazwyczaj zaczyna się od 1956 z warsztatem w Dartmouth, przechodzi przez wczesne systemy symboliczne, a następnie przechodzi do przełomowych momentów, takich jak IBM Deep Blue pokonuje Garry'ego Kasparowa, DeepMind opanowuje Go, a ostatnio OpenAI, pokazując, że duże modele językowe mogą koordynować strategię w złożonych środowiskach wieloosobowych. Te momenty są intelektualnie satysfakcjonujące i łatwe do zapamiętania, ponieważ koncentrują się na widocznych zwycięstwach.
Książka Stephena Witta wyjątkowo dobrze podważa to ujęcie. Zamiast skupiać się na momentach, w których sztuczna inteligencja zrobiła wrażenie na świecie, Maszyna myśląca Koncentruje się na mniej widocznej warstwie kryjącej się za tymi osiągnięciami. Przekonująco argumentuje, że era nowoczesnej sztucznej inteligencji nie została zapoczątkowana wyłącznie dzięki sprytnym pomysłom, ale fundamentalnej zmianie w sposobie wykonywania samych obliczeń.
Skupiając narrację na firmie NVIDIA (NVDA + 0.47%) i jej współzałożyciela Jensena Huanga, Witt przedstawia rewolucję w dziedzinie sztucznej inteligencji jako historię o architekturze obliczeniowej, ekosystemach programistów i długoterminowych przekonaniach. Rezultatem jest nie tylko biografia korporacji, ale także brakujący rozdział w szerszej historii sztucznej inteligencji.
Od gier wideo do nowego paradygmatu komputerowego
Początki firmy NVIDIA są dalekie od wzniosłych ambicji, jakie obecnie kojarzą się ze sztuczną inteligencją. Firma pojawił się w 1993 jako producent układów graficznych, skupiający się na renderowaniu coraz bardziej realistycznych światów gier wideo. Wyzwaniem w tamtym czasie nie była inteligencja, ale szybkość. Gry wymagały natychmiastowego wykonywania ogromnej liczby obliczeń, aby symulować światło, ruch i głębię.
Rozwiązaniem, które wybrała firma NVIDIA, było Równoległe obliczenia. Obliczenia równoległe oznaczają wykonywanie wielu obliczeń jednocześnie, a nie sekwencyjnie. Zamiast polegać na jednym wydajnym rdzeniu przetwarzającym kolejne instrukcje, procesory GPU wykorzystują tysiące mniejszych rdzeni, które jednocześnie pracują nad podobnymi operacjami matematycznymi. To podejście jest szczególnie skuteczne w przypadku obciążeń wymagających powtarzania tych samych obliczeń na dużych zbiorach danych.
Pierwotnie ta architektura została stworzona z myślą o grafice. Witt pokazuje jednak, jak ta decyzja dyskretnie stworzyła idealne podwaliny pod sieci neuronowe dekady później. Trenowanie współczesnych modeli sztucznej inteligencji wymaga ogromnej liczby identycznych operacji matematycznych stosowanych na ogromnych zbiorach danych. Procesory graficzne (GPU) były już zoptymalizowane pod kątem właśnie tego rodzaju zadań.
To, co czyni tę część książki tak fascynującą, to to, jak wyraźnie Witt łączy techniczne wybory projektowe z przetrwaniem. NVIDIA nie wybrała obliczeń równoległych, ponieważ przewidziała sztuczną inteligencję. Wybrała je, ponieważ był to jedyny sposób na konkurowanie w grafice w czasie rzeczywistym. Ta konieczność zmusiła firmę do opanowania modelu obliczeniowego, który później okazał się przełomowy i wykraczał daleko poza gry.
Jensen Huang i myślenie systemowe, a nie produktowe
W centrum tej historii znajduje się Jensen Huang, przedstawiony nie jako konwencjonalny menedżer, lecz jako ktoś, kto konsekwentnie myślał systemowo, a nie w kategoriach pojedynczych produktów. Witt przedstawia Huanga jako osobę wymagającą, intensywną i często trudną, ale jednocześnie niezwykle konsekwentną w swoim postrzeganiu technologii przez długi czas.
Podczas gdy konkurenci traktowali GPU jako komponenty jednorazowego użytku, związane z cyklami gier, Huang traktował je jako fundament szerszej platformy obliczeniowej. To rozróżnienie staje się kluczowe. Produkty są wymieniane. Platformy się składają.
W firmie NVIDIA wewnętrzne podejście odzwierciedlało tę postawę. Inżynierów zachęcano do myślenia perspektywicznego. Oprogramowanie traktowano strategicznie, tak jak krzem. Inwestowano w narzędzia i wsparcie programistów na długo przed pojawieniem się wyraźnego popytu. Wiele z tych decyzji wydawało się wówczas przesadnych lub zbędnych. Z perspektywy czasu, stworzyły one fosę, którą konkurencja miała trudności z przekroczeniem.
Witt jasno daje do zrozumienia, że wzrost NVIDII nie był nieunikniony. Firma nie raz była bliska upadku. Tym, co ją napędzało, nie był pojedynczy przełom, ale niezachwiane przekonanie, że przyspieszone obliczenia będą miały w końcu znaczenie wykraczające daleko poza ich pierwotne zastosowanie.
CUDA i historia powstania sztucznej inteligencji, którą wielu przeoczyło
Jednym z najważniejszych wkładów Maszyna myśląca w ten sposób na nowo definiuje rolę CUDA w historii sztucznej inteligencji.
Zanim przeczytasz tę książkę, łatwo jest pomyśleć o CUDA jako po prostu skuteczne narzędzie dla programistów. Witt pokazuje, dlaczego zasługuje na znacznie większą uwagę. CUDA została stworzona, aby uczynić obliczenia równoległe użytecznymi poza grafiką. Przed pojawieniem się CUDA, używanie procesorów graficznych do ogólnych obliczeń wymagało forsowania problemów przez interfejsy graficzne. Było to niestabilne, nieefektywne i ograniczone do specjalistów.
CUDA zmieniła tę sytuację, umożliwiając programistom programowanie GPU za pomocą znanych modeli programowania. Tysiące rdzeni obliczeniowych stały się powszechnie dostępne. Obniżyło to barierę wejścia do obliczeń o wysokiej wydajności w sposób, który mało kto wówczas w pełni doceniał.
W tym miejscu książka silnie rezonowała z moimi własnymi doświadczeniami w poznawaniu historii sztucznej inteligencji. Przyswojona przeze mnie narracja koncentrowała się głównie na modelach i algorytmach. Co Maszyna myśląca jasno wynika, że wiele z tych pomysłów znalazło zastosowanie w praktyce dopiero wtedy, gdy badacze byli w stanie wdrożyć je na dużą skalę.
Badacze sztucznej inteligencji szybko dostrzegli, że sieci neuronowe stanowią niemal idealne rozwiązanie dla obliczeń równoległych. Trening polega na powtarzaniu tych samych operacji na dużych zbiorach danych, dostosowując miliony, a nawet miliardy parametrów w czasie. Dzięki CUDA proces ten przebiegał szybciej, taniej i niezawodniej niż kiedykolwiek wcześniej, wykorzystując procesory.
Stało się to szczególnie ważne wraz z przyspieszeniem głębokiego uczenia się, a później wraz z pojawieniem się modeli opartych na transformatorach. Transformatory rozwijają się w dużej skali. Bez akceleracji GPU wiele modeli definiujących dzisiejszy krajobraz sztucznej inteligencji pozostałoby jedynie teoretycznych lub byłoby niezwykle kosztownych. CUDA nie wynalazła tych architektur, ale umożliwiła ich szybką ewolucję.
Witt szczególnie trafnie ujmuje fakt, że ten wynik nie był w pełni zaplanowany. CUDA została stworzona z myślą o obliczeniach naukowych. Naukowcy zajmujący się sztuczną inteligencją odkryli jej potencjał i wciągnęli firmę NVIDIA w sam środek wyścigu w dziedzinie sztucznej inteligencji.
Infrastruktura ponad algorytmami
Jedną z najcenniejszych spostrzeżeń zawartych w książce jest to, że postęp sztucznej inteligencji jest ograniczony zarówno przez infrastrukturę, jak i idee. Wiele popularnych opracowań koncentruje się na algorytmach, sztuczkach szkoleniowych i zbiorach danych. Maszyna myśląca przypomina czytelnikowi, że bez odpowiednich obliczeń nic z tego nie ma znaczenia.
Z tej perspektywy, boom na nowoczesną sztuczną inteligencję Wydaje się mniej nagły i bardziej opóźniony. Sieci neuronowe istniały od dziesięcioleci. Zmieniła się jednak dostępność sprzętu umożliwiającego ich trenowanie na znaczącą skalę.
NVIDIA nie tylko dostarczała szybsze układy. Zbudowała ekosystem sprzętu, bibliotek oprogramowania i narzędzi programistycznych, które z czasem wzajemnie się wzmacniały. W miarę jak badacze optymalizowali swoją pracę pod kątem platform NVIDIA, NVIDIA udoskonalała swoje produkty, aby lepiej obsługiwać obciążenia związane ze sztuczną inteligencją. Ta pętla sprzężenia zwrotnego stworzyła trwałą przewagę, wykraczającą daleko poza samą wydajność.
Książka dyskretnie podkreśla fakt, który jest dziś coraz bardziej oczywisty: przywództwo w dziedzinie sztucznej inteligencji kształtują łańcuchy dostaw, moce produkcyjne, ekosystemy oprogramowania i kontrola platformy, a nie tylko genialne badania naukowe.
Wizja, ryzyko i narastające konsekwencje
Witt nie unika implikacji dominacji firmy NVIDIA. W miarę jak firma staje się fundamentem globalnej infrastruktury AI, jej wpływy odpowiednio rosną. Przekonanie Jensena Huanga, że przyspieszone obliczenia zdefiniują kolejną fazę postępu technologicznego, przewija się przez całą książkę.
Zamiast moralizować, Maszyna myśląca Koncentruje się na tym, jak konsekwentne decyzje inżynieryjne i strategiczne narastały z czasem. NVIDIA nie odniosła sukcesu, podążając za trendami. Wygrała, angażując się wcześnie w obliczenia równoległe, znosząc powtarzające się cykle rynkowe i nieustannie inwestując w narzędzia, które uczyniły jej sprzęt niezastąpionym.
Dla czytelników chcących zrozumieć, jak naprawdę skalowała się sztuczna inteligencja
Dla czytelników, którzy już znają najważniejsze momenty Historia sztucznej inteligencjiTa książka uzupełnia lukę, która się za nimi kryje. Wyjaśnia, dlaczego te przełomowe odkrycia mogły się skalować i dlaczego NVIDIA stała się tak kluczową siłą w tym procesie.
To książka dla czytelników, którzy chcą zrozumieć sztuczną inteligencję jako system przemysłowy, a nie zbiór sprytnych modeli. Znajdzie ona silny oddźwięk u osób zainteresowanych układami scalonymi, centrami danych i często niewidocznymi decyzjami inżynieryjnymi, które po cichu kształtują potęgę technologiczną.
Maszyna myśląca odnosi sukces, ponieważ przedstawia historię sztucznej inteligencji od podstaw, pokazując w jaki sposób obliczenia równoległe, platformy programistyczne i długoterminowa wizja zbudowały fundament, na którym obecnie opiera się współczesna sztuczna inteligencja.










