Inteligência artificial
NVIDIA Apresenta a Plataforma Rubin: O Chip de IA de Próxima Geração
Em mais um grande anúncio na Conferência Computex em Taipei, o CEO da NVIDIA, Jensen Huang, revelou mais planos da empresa para o futuro do cálculo de IA. O destaque foi a plataforma de chip de IA Rubin, que deve ser lançada em 2026, e o chip Blackwell Ultra, previsto para 2025.
A Plataforma Rubin
Como sucessor da arquitetura Blackwell, que deve ser lançada mais tarde em 2024, a Plataforma Rubin representa um salto à frente nas capacidades de cálculo de IA da NVIDIA. Huang enfatizou a necessidade de cálculo acelerado para lidar com as demandas cada vez maiores de processamento de dados, afirmando: “Estamos vendo inflação de cálculo”. A tecnologia da NVIDIA promete entregar uma economia de custos impressionante de 98% e uma redução de 97% no consumo de energia, posicionando a empresa como líder no mercado de chips de IA.
Embora detalhes específicos sobre a Plataforma Rubin tenham sido escassos, Huang revelou que ela contará com novos GPUs e um processador central chamado Vera. A plataforma também incorporará HBM4, a próxima geração de memória de largura de banda, que se tornou um gargalo crítico na produção de aceleradores de IA devido à demanda em alta. O principal fornecedor, SK Hynix Inc., está quase totalmente vendido de HBM4 até 2025, destacando a feroz competição por esse componente essencial.
https://www.youtube.com/watch?v=pKXDVsWZmUU
NVIDIA e AMD Lideram o Cenário
A mudança da NVIDIA para um cronograma de lançamento anual para seus chips de IA destaca a intensificação da competição no mercado de chips de IA. À medida que a NVIDIA busca manter sua posição de liderança, outros gigantes da indústria também estão fazendo progressos significativos. Durante a keynote de abertura da Computex 2024, a presidente e CEO da AMD, Lisa Su, apresentou o crescimento do momento da família de aceleradores AMD Instinct, revelando uma estratégia de vários anos que introduz um ritmo anual de liderança em desempenho e capacidades de memória de IA.
A estratégia da AMD começa com o acelerador AMD Instinct MI325X, que deve estar disponível no quarto trimestre de 2024, com capacidade de memória e largura de banda líderes no setor. A empresa também pré-visualizou os processadores AMD EPYC de 5ª geração, codinome “Turim”, que utilizarão o núcleo “Zen 5” e devem estar disponíveis na segunda metade de 2024. Olhando para o futuro, a AMD planeja lançar a série AMD Instinct MI400 em 2026, baseada na arquitetura AMD CDNA “Next”, prometendo desempenho e eficiência aprimorados para treinamento e inferência de IA.
Implicações, Impacto Potencial e Desafios
A introdução da Plataforma Rubin da NVIDIA e o compromisso da empresa com atualizações anuais para seus aceleradores de IA têm implicações de longo alcance para a indústria de IA. Esse ritmo acelerado de inovação e desenvolvimento permitirá soluções de IA mais eficientes e econômicas, impulsionando avanços em vários setores.
Embora a Plataforma Rubin tenha um grande potencial, existem desafios e considerações que devem ser abordados. A alta demanda por memória HBM4 e as restrições de fornecimento impostas pelo principal fornecedor, SK Hynix Inc., que está quase totalmente vendido até 2025, podem potencialmente impactar a produção e disponibilidade da Plataforma Rubin.
Além disso, a NVIDIA deve encontrar um equilíbrio delicado entre desempenho, eficiência e custo para garantir que a Plataforma Rubin permaneça acessível e viável para uma ampla gama de clientes. A compatibilidade e a integração perfeita com sistemas existentes também serão cruciais para facilitar a adoção e minimizar a interrupção para os usuários.
À medida que a Plataforma Rubin define o palco para a inovação e o desenvolvimento acelerados de IA, as empresas e os pesquisadores devem estar informados e preparados para aproveitar esses avanços. Ao utilizar a Plataforma Rubin da NVIDIA, as organizações em várias indústrias podem impulsionar eficiências e obter uma vantagem competitiva em seus setores.










