toco Enfrentando o domínio da Nvidia: estratégias de desenvolvimento ágil de ML para empresas que não são grandes empresas de tecnologia (em meio a desafios de fornecimento e custo) - Unite.AI
Entre em contato

Líderes de pensamento

Enfrentando o domínio da Nvidia: estratégias de desenvolvimento ágil de ML para players que não são grandes empresas de tecnologia (em meio a desafios de fornecimento e custo)

mm

Publicado

 on

Construir um negócio no jogo entre os verdadeiros grandes jogadores nunca foi uma tarefa fácil. Em 2023, a concorrência no setor da IA ​​atingiu níveis sem precedentes, alimentada por avanços reais e alucinantes. O lançamento do OpenAI GPT-4, Integração de Bate-papo GPT com Bing, lançamento do Google Bardoe o polêmico “código aberto” do Meta  lhama 2 liberar. Parece uma longa lista de grandes nomes, certo? Por mais emocionante que possa parecer, a maior parte da inovação reside onde o dinheiro flui, e a competição que os pequenos players tecnológicos têm de enfrentar está a tornar-se mais intensa a cada dia.

No cenário em constante evolução da indústria tecnológica, a Nvidia continua a solidificar a sua posição como o principal interveniente na infraestrutura de IA. Durante um Teleconferência de relatório financeiro de agosto, Jensen Huang, presidente da NVIDIA, destacou a crescente demanda por processadores Nvidia. Esta afirmação é apoiada pela confirmação de Terceiro trimestre da Nvidia r Apresentação de dados de receita, que revela um impressionante recorde de desempenho anual, evidente já em novembro no acumulado do ano. Enquanto isso, as projeções do Gartner indicam um aumento significativo nos gastos com chips nos próximos quatro anos. Atualmente, a pilha de software e os processadores da Nvidia são incomparáveis, deixando a indústria incerta sobre quando um concorrente confiável poderá surgir.

Relatórios recentes de Bloomberg e os votos de Financial Times lançar luz sobre as negociações de Sam Altman, CEO da OpenAI, com investidores do Oriente Médio para iniciar a produção de chips, com o objetivo de reduzir a dependência do setor de IA dos chips Nvidia. Desafiar a Nvidia, com sua capitalização de mercado de quase US$ 1.5 trilhão, provavelmente custará a Altman entre US$ 5 trilhão e US$ 7 trilhões e levar vários anos.

No entanto, abordar a relação custo-eficácia dos modelos de ML para os negócios é algo que as empresas têm de fazer agora. Para empresas fora do domínio das grandes tecnologias, o desenvolvimento de modelos de ML econômicos é mais do que apenas um processo de negócios: é uma estratégia de sobrevivência vital. Este artigo explora quatro estratégias pragmáticas que capacitam empresas de todos os tamanhos a desenvolverem seus modelos sem grandes investimentos em P&D e permanecerem flexíveis para evitar a dependência de fornecedores.

Por que a Nvidia domina o mercado de IA

Resumindo, a Nvidia criou o fluxo de trabalho de treinamento de modelo ideal ao alcançar sinergia entre GPUs de alto desempenho e sua pilha proprietária de software de treinamento de modelo, o amplamente aclamado kit de ferramentas CUDA.

CUDA (introduzido em 2007) é um kit de ferramentas e API de computação paralela abrangente para utilização ideal dos processadores GPU Nvidia. A principal razão pela qual é tão popular é a sua capacidade incomparável de acelerar cálculos matemáticos complexos, cruciais para o aprendizado profundo. Além disso, oferece um ecossistema rico como o cuDNN para redes neurais profundas, melhorando o desempenho e a facilidade de uso. É essencial para os desenvolvedores devido à sua integração perfeita com as principais estruturas de aprendizagem profunda, permitindo o rápido desenvolvimento e iteração de modelos.

A combinação de uma pilha de software tão robusta com hardware altamente eficiente provou ser a chave para conquistar o mercado. Embora alguns argumentem que o domínio da Nvidia pode ser um fenômeno temporário, é difícil fazer tais previsões no cenário atual.

O pesado tributo do domínio da Nvidia

A vantagem da Nvidia no campo de desenvolvimento de aprendizado de máquina levantou inúmeras preocupações, não apenas no considerações éticas domínio, mas também no que diz respeito às crescentes disparidades orçamentais de investigação e desenvolvimento, que são uma das razões pelas quais entrar no mercado se tornou exponencialmente mais difícil para os pequenos participantes, quanto mais para as startups. Acrescente-se o declínio no interesse dos investidores devido a riscos mais elevados e a tarefa de adquirir P&D robusto (como os da Nvidia) os investimentos tornam-se completamente impossíveis, criando condições de concorrência muito, muito desiguais.

No entanto, esta forte dependência do hardware da Nvidia coloca ainda mais pressão sobre a consistência da cadeia de abastecimento e abre o risco de interrupções e aprisionamento de fornecedores, reduzindo a flexibilidade do mercado e aumentando as barreiras à entrada no mercado.

"Alguns estão juntando dinheiro para garantir que não deixarão os usuários em apuros. Em todos os lugares, termos de engenharia como “otimização” e “modelo menor” estão em voga à medida que as empresas tentam reduzir suas necessidades de GPU, e os investidores este ano apostaram centenas de milhões de dólares em startups cujo software ajuda as empresas a se contentarem com as GPUs que usam. eu tenho.

A escassez de chips da Nvidia deixa as startups de IA lutando por poder de computação Por Paresh Dave

Agora é a hora de adotar abordagens estratégicas, pois isso pode ser exatamente o que dará à sua empresa a chance de prosperar em meio à influência de longo alcance da Nvidia no desenvolvimento de ML.

Estratégias que os jogadores que não são grandes empresas de tecnologia podem se adaptar ao domínio da Nvidia:

1. Comece a explorar o RocM da AMD 

A AMD tem estreitado ativamente sua lacuna de desenvolvimento de IA com a NVIDIA, um feito alcançado por meio de seu suporte consistente à Rocm em Principais bibliotecas do PyTorch durante o ano passado. Este esforço contínuo resultou em melhor compatibilidade e desempenho, demonstrados com destaque pelo Chipset MI300, o último lançamento da AMD. O MI300 demonstrou desempenho robusto em tarefas de inferência de Large Language Model (LLM), destacando-se particularmente com modelos como LLama-70b. Este sucesso ressalta os avanços significativos no poder de processamento e na eficiência alcançados pela AMD.

2. Encontre outras alternativas de hardware

Além dos avanços da AMD, O Google introduziu unidades de processamento de tensor (TPUs), hardware especializado projetado explicitamente para acelerar cargas de trabalho de aprendizado de máquina, oferecendo uma alternativa robusta para treinar modelos de IA em larga escala.

Além desses gigantes da indústria, players menores, porém impactantes, como Graphcore e Cerebras estão fazendo contribuições notáveis ​​para o espaço de hardware de IA. A Unidade de Processamento de Inteligência (IPU) da Graphcore, adaptada para eficiência em cálculos de IA, atraiu atenção por seu potencial em tarefas de alto desempenho, conforme demonstrado por Experimentação do Twitter. A Cerebras, por outro lado, é ultrapassando limites com seus chips avançados, enfatizando escalabilidade e poder computacional bruto para aplicações de IA.

Os esforços coletivos destas empresas significam uma mudança em direção a um ecossistema de hardware de IA mais diversificado. Essa diversificação apresenta estratégias viáveis ​​para reduzir a dependência da NVIDIA, proporcionando aos desenvolvedores e pesquisadores uma gama mais ampla de plataformas para o desenvolvimento de IA.

3. Comece a investir na otimização de desempenho

Além de explorar alternativas de hardware, a otimização do software prova ser um fator crucial para diminuir o impacto do domínio da Nvidia. Ao utilizar algoritmos eficientes, reduzir cálculos desnecessários e implementar técnicas de processamento paralelo, os participantes não grandes da tecnologia podem maximizar o desempenho de seus modelos de ML no hardware existente, oferecendo uma abordagem pragmática para preencher a lacuna sem depender apenas de atualizações caras de hardware.

Uma ilustração dessa abordagem é encontrada na tecnologia AutoNAC da Deci Ai. Esta inovação demonstrou a capacidade de acelerar a inferência de modelos por um fator impressionante de 3 a 10 vezes, conforme comprovado pelo amplamente reconhecido Referência MLPerf. Ao apresentar tais avanços, torna-se evidente que a otimização de software pode aumentar significativamente a eficiência do desenvolvimento de ML, apresentando uma alternativa viável para mitigar a influência do domínio da Nvidia no campo.

4. Comece a colaborar com outras organizações para criar clusters descentralizados

Esta abordagem colaborativa pode envolver a partilha de resultados de investigação, o investimento conjunto em opções alternativas de hardware e a promoção do desenvolvimento de novas tecnologias de ML através de projetos de código aberto. Ao descentralizar a inferência e utilizar recursos de computação distribuídos, os pequenos participantes da tecnologia podem nivelar o campo de atuação e criar um cenário mais competitivo na indústria de desenvolvimento de ML.

Hoje, a estratégia de partilha de recursos computacionais está a ganhar impulso em toda a indústria tecnológica. O Google Kubernetes Engine (GKE) exemplifica isso ao oferecer suporte à multilocação de cluster, permitindo a utilização eficiente de recursos e a integração com serviços de terceiros. Esta tendência é ainda evidenciada por iniciativas lideradas pela comunidade, como Petals, que oferece uma rede distribuída para executar modelos de IA, tornando a computação de alta potência acessível sem investimento significativo. Além disso, plataformas como Together.ai fornecem acesso sem servidor a uma ampla gama de modelos de código aberto, agilizando o desenvolvimento e promovendo a colaboração. Considerar tais plataformas pode permitir o acesso a recursos computacionais e oportunidades de desenvolvimento colaborativo, ajudando a otimizar seu processo de desenvolvimento e reduzir custos, independentemente do tamanho da organização.

Conclusão 

À escala global, torna-se evidente a necessidade das estratégias acima mencionadas. Quando uma entidade domina o mercado, isso sufoca o desenvolvimento e dificulta o estabelecimento de preços razoáveis.

Os não grandes players de tecnologia podem combater o domínio da Nvidia explorando alternativas como o RocM da AMD, investindo na otimização de desempenho por meio de algoritmos eficientes e processamento paralelo e promovendo a colaboração com outras organizações para criar clusters descentralizados. Isto promove um cenário mais diversificado e competitivo na indústria de hardware e desenvolvimento de IA, permitindo que pequenos participantes tenham uma palavra a dizer no futuro do desenvolvimento de IA.

Estas estratégias visam diminuir a dependência dos preços e fornecimentos da Nvidia, aumentando assim o apelo ao investimento, minimizando o risco de desaceleração do desenvolvimento de negócios em meio à concorrência de hardware e promovendo o crescimento orgânico em toda a indústria.

Com mais de 8 anos de experiência no desenvolvimento de soluções de IA e gerenciamento de equipes em líderes do setor como Meta e VK.com, Sergey traz um sólido histórico de inovação. Seu compromisso com a área também é evidenciado por sua contribuição ao campo acadêmico com mais de 6 anos de palestras em instituições de ponta do mundo, incluindo a Universidade Estadual Lomonosov de Moscou e a Universidade Técnica Estadual Bauman de Moscou, entre outras. Com experiência que abrange estratégia de ML, big data e operações em nuvem, as contribuições de Sergey baseiam-se em conquistas e reconhecimento substanciais, tanto no âmbito profissional quanto em empreendimentos educacionais.