Kunngjøringer
Nedbryting av Nvidias annonseringer på Computex Taipei

I en keynote som var full av elektriserende avsløringer på den nylige Computex Taipei-konferansen, tok Nvidias CEO, Jensen Huang, offisielt teppet av Grace Hopper-plattformen. Denne innovative kombinasjonen av den energi-effektive Nvidia Grace CPU-en og den høy-ytelses Nvidia H100 Tensor Core GPU markerer en ny horisont i bedriftsnivåets AI-funksjonalitet.
Presentasjon av Grace Hopper og DGX GH200
Dette omfattende AI-modulen var ikke den eneste bemerkelsesverdige annonseringen som ble gjort av Huang. DGX GH200, en kraftig AI-supercomputer, tok også rampelyset. Med ekstraordinære minneevner kan denne supercomputeren huse så mange som 256 Nvidia Grace Hopper Superchips innenfor en GPU-størrelse som en typisk data-senter.
DGX GH200 er virkelig en kraftmaskin, som leverer en exaflop-ytelse og har en imponerende 144 terabyte delt minne. Dette overstiger langt forgjenger-modellene med en faktor på 500, og åpner døren for utviklere til å konstruere komplekse språkmodeller for neste generasjons AI-chatbots, lage avanserte algoritmer for anbefalingsystemer og bygge sofistikerte grafneurale nettverk, essensielle for svindel- og dataanalyseoppgaver. Som Huang understreket, har tech-ledere som Google Cloud, Meta og Microsoft allerede begynt å benytte seg av DGX GH200s muligheter til å håndtere deres generative AI-arbeidsbyrde.
“DGX GH200 AI-supercomputere inkorporerer Nvidias mest avanserte akselererte datateknologi og nettverksteknologi, og skyver grensene for AI,” understreket Huang.
Nvidia Avatar Cloud Engine (ACE) for spill
I en stor annonsering som førte spillutviklere inn i rampelyset, avslørte Huang Nvidia Avatar Cloud Engine (ACE) for spill. Denne foundry-tjenesten muliggjør at utviklere kan lage og distribuere tilpassede AI-modeller for tale, samtale og animasjon. ACE-verktøyet gir ikke-spillbare karakterer evnen til å engasjere i samtale, og responderer dermed på spørsmål med kontinuerlig utviklende, livlige personligheter.
Dette robuste verktøyet består av nøkkel AI-grunnmodeller, som Nvidia Riva for tale-deteksjon og transkripsjon, Nvidia NeMo for å lage tilpassede svar, og Nvidia Omniverse Audio2Face for å animere disse svarene.
Nvidia og Microsofts samarbeidsprosjekter
Keynoten belyste også Nvidias nye partnerskap med Microsoft for å katalysere fremveksten av generativ AI på Windows-PC-er. Dette samarbeidet vil utvikle forbedrede verktøy, rammer og drivere for å forenkle AI-utviklingen og -distribusjonen på PC-er.
Samarbeidsprosjektet vil øke og utvide den installerte basisen på over 100 millioner PC-er utstyrt med RTX-GPU-er med Tensor-kjerner. Denne forbedringen lover å overdrive ytelsen til over 400 AI-akselererte Windows-applikasjoner og spill.
Generativ AI og digital reklame
Ifølge Huang, strekker potensialet for generativ AI seg også til området digital reklame. Nvidia har gått i partnerskap med WPP, en markedsførings-tjeneste-organisasjon, for å utvikle en innovativ innholdsmotor på Omniverse Cloud-plattformen.
Denne motoren kobler kreative team med 3D-design-verktøy som Adobe Substance 3D for å lage digitale kopier av kunde-produkter innenfor Nvidia Omniverse. Ved hjelp av GenAI-verktøy, drevet av Nvidia Picasso og trent på ansvarlig kilde-data, kan disse teamene nå raskt generere virtuelle sett. Denne revolusjonerende evnen muliggjør at WPPs kunder kan produsere en stor mengde reklame, videoer og 3D-erfaringer, tilpasset globale markeder og tilgjengelig på enhver web-enhet.
Digital revolusjon i produksjon
En av Nvidias primære fokusområder har vært produksjon, en kolossal 46 billioner-dollar-industri bestående av rundt 10 millioner fabrikker. Huang viste hvordan elektronikktillverkere som Foxconn Industrial Internet, Innodisk, Pegatron, Quanta og Wistron utnytter Nvidias teknologier. Ved å adoptere digitale arbeidsflyter, flytter disse selskapene nærmere drømmen om fullstendig digitale smarte fabrikker.
“Verdens største industrier skaper fysiske ting. Ved å bygge dem digitalt først, kan vi spare milliarder,” uttalte Huang.
Integrasjonen av Omniverse og generativ AI-API-er har muliggjort at disse selskapene kan bygge broer mellom design- og produksjonsverktøy, og konstruere digitale kopier av deres fabrikker – digitale tvillinger. Videre benytter de seg av Nvidia Isaac Sim for å simulere og teste roboter og Nvidia Metropolis – et visjon AI-rammeverk – for automatisert optisk inspeksjon. Nvidias nyeste tilbud, Nvidia Metropolis for fabrikker, åpner veien for skaping av tilpassede kvalitetskontrollsystemer, og gir produsentene en konkurransefordel og mulighet til å utvikle fremtidsrettede AI-applikasjoner.
Konstruksjon av Nvidia Helios og introduksjon av Nvidia MG
I tillegg avslørte Nvidia den pågående konstruksjonen av den fantastiske AI-supercomputeren, Nvidia Helios. Forventet å bli operativ senere i år, vil Helios utnytte fire sammenkoblede DGX GH200-systemer med Nvidia Quantum-2 InfiniBand-nettverk, og tilby en båndbredde på opptil 400Gb/s. Dette vil dramatisk øke data-gjennomstrømming for trening av store AI-modeller.
Som en supplement til disse banebrytende utviklingene, introduserte Nvidia Nvidia MGX, en modulær referanse-arkitektur som tillater systemtilbydere å lage en rekke server-konfigurasjoner tilpasset for AI, HPC og Nvidia Omniverse-applikasjoner på en kostnadseffektiv og effektiv måte.
Med MGX-arkitekturen kan produsentene utvikle standardiserte CPU-er og akselererte servere med modulære komponenter. Disse konfigurasjonene støtter en rekke GPU-er, CPU-er, data-prosesserings-enheter (DPUs) og nettverksadaptere, inkludert x86- og Arm-prosessorer. MGX-konfigurasjoner kan plasseres i både luft- og væske-kjølte skap. QCT og Supermicro leder an i å adoptere MGX-design, og andre betydelige selskaper som ASRock Rack, ASUS, GIGABYTE og Pegatron forventes å følge.
Revolusjon i 5G-infrastruktur og sky-nettverk
Ser fremover, annonserte Huang en rekke partnerskap rettet mot å revolusjonere 5G-infrastruktur og sky-nettverk. Et bemerkelsesverdig partnerskap med en japansk telekommunikasjonsgigant vil utnytte Nvidias Grace Hopper og BlueField-3 DPUs innenfor modulære MGX-systemer for å utvikle et distribuert nettverk av data-sentre.
Ved å integrere Nvidia-spektrum-ethernett-switcher, vil data-sentrene muliggjøre den nøyaktige tidsstyringen som kreves av 5G-protokollen, og føre til forbedret spektraleffisiens og lavere energiforbruk. Plattformen har potensial for en rekke applikasjoner, inkludert autonom kjøring, AI-fabrikker, forsterket og virtuell virkelighet, datavisjon og digitale tvillinger.
I tillegg avslørte Huang Nvidia Spectrum-X, et nettverksplattform designet for å øke ytelsen og effisiensen til ethernett-baserte AI-skyer. Ved å kombinere Spectrum-4 Ethernet-switcher med BlueField-3 DPUs og programvare, tilbyr Spectrum-X en 1,7 ganger økning i AI-ytelse og effisiens. Store system-tilbydere som Dell Technologies, Lenovo og Supermicro tilbyr allerede Nvidia Spectrum-X, Spectrum-4-switcher og BlueField-3 DPUs.
Etablering av generativ AI-superdatingsenter
Nvidia tar også store skritt i å etablere generativ AI-superdatings-sentre verden over. Blant annet bygger selskapet Israel-1, en statlig supercomputer, innenfor sitt lokale data-senter i Israel. Denne supercomputeren har som mål å fremme lokale forsknings- og utviklingsinnsats.
Og i Taiwan er to nye supercomputere under utvikling: Taiwania 4 og Taipei-1. Disse tilføyningene lover å signifikant øke lokale forsknings- og utviklingsinitiativer, og understreker Nvidias forpliktelse til å fremme grensene for AI og superdatings-verden over.










