Connect with us

Kunstig intelligens

NVIDIA avduker Rubin-plattformen: Neste generasjons AI-brikke

mm

I enda en stor kunngjøring på Computex-konferansen i Taipei, avduket NVIDIA-sjef Jensen Huang mer av selskapets planer for fremtiden til AI-regning. Spotlighten skinte på Rubin AI-brikkeplattformen, som skal lanseres i 2026, og Blackwell Ultra-brikken, som er planlagt for 2025.

Rubin-plattformen

Som etterfølgeren til den høyt antatte Blackwell-arkitekturen, som forventes å bli levert senere i 2024, representerer Rubin-plattformen et sprang fremover i NVIDIA’s AI-regningsmuligheter. Huang understreket behovet for akselerert regning for å takle de stadig økende kravene til databehandling, og sa: “Vi ser en inflasjon i regningen.” NVIDIA’s teknologi lover å levere en imponerende 98% kostnadsbesparing og en 97% reduksjon i energiforbruk, og plasserer selskapet som en frontløper i AI-brikke-markedet.

Mens detaljene om Rubin-plattformen var sparsomme, avslørte Huang at den vil inneholde nye GPU-er og en sentral prosessor kalt Vera. Plattformen vil også inkorporere HBM4, den neste generasjonen av høy-båndbredde-minne, som har blitt en kritisk flaskehals i AI-akseleratorproduksjon på grunn av stigende etterspørsel. Ledende leverandør SK Hynix Inc. er i stor grad utsolgt av HBM4 gjennom 2025, og understreker den intense konkurransen om denne essensielle komponenten.

NVIDIA og AMD i spissen

NVIDIA’s skifte til en årlig lanseringsplan for sine AI-brikker understreker den intensiverende konkurransen i AI-brikke-markedet. Mens NVIDIA streber etter å opprettholde sin ledende posisjon, gjør andre industrigiganter også betydelige skritt. Under åpningstalen på Computex 2024, viste AMD-styreleder og sjef Lisa Su den økende momentumet til AMD Instinct-akseleratorfamilien, og avduket en flerårig veikart som introduserer en årlig kadens av ledende AI-ytelse og minnekapasitet.

AMD’s veikart begynner med AMD Instinct MI325X-akseleratoren, som skal være tilgjengelig i Q4 2024, og som har en industriledende minnekapasitet og båndbredde. Selskapet previewet også 5. generasjon AMD EPYC-prosessorer, kodenavn “Turin”, som skal bruke “Zen 5”-kernen og forventes å være tilgjengelig i den andre halvdel av 2024. Ser man fremover, planlegger AMD å lansere AMD Instinct MI400-serien i 2026, basert på AMD CDNA “Next”-arkitekturen, og lover forbedret ytelse og effisiens for AI-trening og inferens.

Konsekvenser, potensiell innvirkning og utfordringer

Innføringen av NVIDIA’s Rubin-plattform og selskapets forpliktelse til årlige oppdateringer for sine AI-akseleratorer, har langtrekkende konsekvenser for AI-industrien. Denne akselererte takten av innovasjon og utvikling vil muliggjøre mer effektive og kostnadseffektive AI-løsninger, og drive fremgang på tvers av ulike sektorer.

Mens Rubin-plattformen har et enormt potensial, er det utfordringer og overveielser som må håndteres. Den høye etterspørselen etter HBM4-minne og forsyningsbegrensningene som følger med at ledende leverandør SK Hynix Inc. i stor grad er utsolgt gjennom 2025, kan potensielt påvirke produksjonen og tilgjengeligheten av Rubin-plattformen.

Dessuten må NVIDIA finne en delikat balanse mellom ytelse, effisiens og kostnad for å sikre at Rubin-plattformen forblir tilgjengelig og levedyktig for en bred rekke kunder. Kompatibilitet og sømløs integrasjon med eksisterende systemer vil også være avgjørende for å lette adopsjon og minimere forstyrrelser for brukerne.

Mens Rubin-plattformen setter scenen for akselerert AI-innovasjon og utvikling, må bedrifter og forskere holde seg informert og forberedt på å utnytte disse fremgangene. Ved å utnytte NVIDIA’s Rubin-plattform, kan organisasjoner på tvers av ulike industrier drive effektivitet og få en konkurransefordel i sine industrier.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.