Artificiell intelligens
NVIDIA Avtäcker Rubin-plattformen: Nästa generations AI-chip
I ännu ett stort tillkännagivande på Computex-konferensen i Taipei avslöjade NVIDIA:s VD Jensen Huang mer av företagets planer för framtiden för AI-beräkningar. Strålkastarljuset riktades mot Rubin AI-chipplattformen, som ska lanseras 2026, och Blackwell Ultra-chipen, som planeras till 2025.
Rubin-plattformen
Som efterträdare till den mycket efterlängtade Blackwell-arkitekturen, som förväntas skeppas senare 2024, representerar Rubin-plattformen ett stort steg framåt i NVIDIA:s AI-beräkningsförmåga. Huang betonade behovet av accelererad beräkning för att hantera de alltmer ökande kraven på datahantering och sa: “Vi ser en beräkningsinflation.” NVIDIA:s teknik lovar att leverera en imponerande 98% kostnadsbesparing och en 97% minskning av energiförbrukning, vilket positionerar företaget som en ledare på AI-chipmarknaden.
Medan specifika detaljer om Rubin-plattformen var knapphändiga, avslöjade Huang att den kommer att ha nya GPU:er och en centralprocessor som heter Vera. Plattformen kommer också att inkorporera HBM4, nästa generation av höghastighetsminne, som har blivit en kritisk flaskhals i AI-acceleratorproduktionen på grund av den starka efterfrågan. Den ledande leverantören SK Hynix Inc. är till stor del såld ur HBM4 fram till 2025, vilket understryker den hårda konkurrensen om denna viktiga komponent.
https://www.youtube.com/watch?v=pKXDVsWZmUU
NVIDIA och AMD leder laddningen
NVIDIA:s övergång till en årlig utgivningsschema för sina AI-chippar betonar den ökande konkurrensen på AI-chipmarknaden. Medan NVIDIA strävar efter att upprätthålla sin ledande position, gör också andra branschjättar betydande framsteg. Under den inledande keynote-talet på Computex 2024 presenterade AMD:s styrelseordförande och VD Lisa Su den växande momentum som AMD Instinct-acceleratorfamiljen har, och avslöjade en flerårig roadmap som introducerar en årlig takt för ledande AI-prestanda och minnesförmåga.
AMD:s roadmap börjar med AMD Instinct MI325X-acceleratorn, som planeras att finnas tillgänglig i Q4 2024, och som har en branschledande minneskapacitet och bandbredd. Företaget förhandsvisade också 5:e generationens AMD EPYC-processorer, som har kodnamnet “Turin”, och som förväntas finnas tillgängliga under den senare delen av 2024. Framåtblickande planerar AMD att släppa AMD Instinct MI400-serien 2026, baserad på AMD CDNA “Next”-arkitekturen, som lovar förbättrad prestanda och effektivitet för AI-träning och inferens.
Konsekvenser, potential påverkan och utmaningar
Införandet av NVIDIA:s Rubin-plattform och företagets åtagande att ge ut årliga uppdateringar för sina AI-acceleratorer har långtgående konsekvenser för AI-branschen. Denna accelererade takt av innovation och utveckling kommer att möjliggöra mer effektiva och kostnadseffektiva AI-lösningar, och driva framsteg inom olika sektorer.
Medan Rubin-plattformen har ett stort löfte, finns det utmaningar och överväganden som måste hanteras. Den höga efterfrågan på HBM4-minne och de leveransbegränsningar som den ledande leverantören SK Hynix Inc. har, och som till stor del är såld ur fram till 2025, kan potentiellt påverka produktionen och tillgängligheten av Rubin-plattformen.
Dessutom måste NVIDIA hitta en balans mellan prestanda, effektivitet och kostnad för att säkerställa att Rubin-plattformen förblir tillgänglig och livskraftig för en bred kundbas. Kompatibilitet och smidig integrering med befintliga system kommer också att vara avgörande för att underlätta antagandet och minimera störningar för användarna.
Såsom Rubin-plattformen sätter scenen för accelererad AI-innovation och utveckling, måste företag och forskare hålla sig informerade och förberedda för att utnyttja dessa framsteg. Genom att utnyttja NVIDIA:s Rubin-plattform kan organisationer inom olika branscher driva effektivitet och få en konkurrensfördel i sina branscher.












