Connect with us

IA & AR estão impulsionando a demanda por dados – Hardware de código aberto está atendendo ao desafio

Líderes de pensamento

IA & AR estão impulsionando a demanda por dados – Hardware de código aberto está atendendo ao desafio

mm

Os dados são a vida do mercado digital, e à medida que novas tecnologias surgem e evoluem, a demanda por taxas de transferência de dados mais rápidas, latências mais baixas e maior poder de processamento nos centros de dados está aumentando exponencialmente. Novas tecnologias estão empurrando os limites da transmissão e processamento de dados, e a adoção de tecnologias de código aberto pode ajudar os operadores de centros de dados a maximizar suas operações atuais e se preparar para o futuro. Aqui estão alguns exemplos de tecnologias que impulsionam a demanda por computação de alto desempenho e maneiras pelas quais as tecnologias, comunidades e padrões de código aberto estão ajudando a atender a essa demanda em escala de forma sustentável.

Inteligência Artificial e Aprendizado de Máquina

As tecnologias de inteligência artificial (IA) e aprendizado de máquina (ML) estão revolucionando vários domínios, como processamento de linguagem natural, visão computacional, reconhecimento de fala, sistemas de recomendação e carros autônomos. A IA e o ML permitem que os computadores aprendam com os dados e realizem tarefas que normalmente exigem inteligência humana.

No entanto, a IA e o ML também exigem grandes quantidades de dados e poder de processamento para treinar e executar modelos e algoritmos complexos. Por exemplo, o GPT-3, um dos modelos de linguagem natural mais avançados do mundo, tem 175 bilhões de parâmetros e foi treinado em 45 terabytes de dados de texto. Para processar conjuntos de dados e modelos de grande escala de forma eficiente, as aplicações de IA e ML precisam de sistemas de computação de alto desempenho (HPC) que possam fornecer taxas de transferência de dados de alta velocidade, latências baixas e alto poder de processamento.

Uma das tendências emergentes em HPC é usar processadores especializados, como GPUs ou TPUs, que são otimizados para processamento paralelo e operações matriciais comuns em cargas de trabalho de IA e ML. Por exemplo, o processador Grace CPU da NVIDIA é um novo processador projetado especificamente para aplicações de HPC que aproveita a tecnologia de GPU da NVIDIA para fornecer até 10 vezes mais desempenho do que os CPUs x86 atuais. O processador Grace CPU também suporta interconexões rápidas, como o NVLink, que permitem taxas de transferência de dados de alta velocidade entre CPUs e GPUs.

Realidade Aumentada e Realidade Virtual

O Apple Vision Pro fez ondas durante sua apresentação. A realidade aumentada (AR) e a realidade virtual (VR) são duas das tecnologias mais imersivas e interativas que estão transformando várias indústrias, como entretenimento, educação, saúde e manufatura. A AR sobrepoem informações digitais sobre o mundo real, enquanto a VR cria um ambiente totalmente simulado que os usuários podem experimentar por meio de um headset.

No entanto, essas tecnologias também apresentam desafios significativos para a transferência e processamento de dados. Devido ao seu lançamento recente, os detalhes em torno do Apple Vision Pro ainda estão pendentes. Outros headsets de VR estão disponíveis há algum tempo, então podemos fazer algumas suposições. Por exemplo, headsets de VR, como o Oculus Quest 2, exigem uma conexão de alta velocidade com um PC ou um servidor de nuvem para transmitir conteúdo de vídeo e áudio de alta qualidade, bem como dados de rastreamento e entrada do headset e controladores. A taxa de bitrate de vídeo, que é a quantidade de dados transferidos por segundo, depende da velocidade com que a GPU pode codificar o sinal no lado do PC ou servidor e da velocidade com que o processador do Quest 2 pode decodificar o sinal no lado do headset.

De acordo com a Oculus, a taxa de bitrate recomendada para transmissão de VR é entre 150 Mbps e 500 Mbps, dependendo da resolução e da taxa de quadros. Isso significa que a transmissão de VR exige uma taxa de transferência de dados muito mais alta do que outras atividades online, como navegação na web ou transmissão de música. Além disso, a transmissão de VR também exige baixa latência, que é o tempo que leva para um sinal viajar de um ponto a outro. Alta latência pode causar atrasos ou soluços no jogo, o que pode arruinar a imersão e causar enjoo.

A latência depende de vários fatores, como a velocidade da rede, a distância entre os dispositivos e os algoritmos de codificação e decodificação. De acordo com a Oculus, a latência ideal para transmissão de VR é inferior a 20 milissegundos. No entanto, alcançar esse nível de desempenho não é fácil, especialmente sobre conexões sem fio, como Wi-Fi ou 5G.

Tecnologias de Código Aberto para Otimização de Centros de Dados

À medida que novas tecnologias impulsionam a demanda por taxas de transferência de dados mais rápidas, latências mais baixas e maior poder de processamento nos centros de dados, os operadores de centros de dados enfrentam vários desafios, como aumento do consumo de energia, exigências de refrigeração mais rigorosas, utilização de espaço, custos operacionais e um ritmo acelerado de inovação e atualização de hardware. Para atender a esses desafios, os operadores de centros de dados precisam otimizar sua infraestrutura atual e adotar novos padrões e tecnologias que possam melhorar sua eficiência e escalabilidade.

Este é o objetivo do Projeto Open19, uma iniciativa da Sustainable and Scalable Infrastructure Alliance que agora faz parte da Linux Foundation. O Projeto Open19 é um padrão aberto para hardware de centro de dados que é baseado em fatores de forma comuns e fornece distribuição de energia de próxima geração, componentes reutilizáveis e oportunidades para interconexões de alta velocidade emergentes. A missão da SSIA e os padrões abertos criados por meio do Projeto Open19 estão alinhados com a maior impulsionadora da indústria em direção à eficiência, escalabilidade e sustentabilidade para a infraestrutura que alimenta nossas vidas e comunidades digitais. O Projeto Open Compute é outro esforço para apoiar de forma eficiente as demandas crescentes sobre a infraestrutura de computação. Esse projeto promove a colaboração comunitária entre parceiros da indústria para desenvolver soluções de centro de dados, com foco em tamanhos de rack de servidor de 21 polegadas, normalmente usados por grandes colos e hyperscalers. O escopo do OCP também se estende ao local do centro de dados, bem como aos componentes internos de TI dos servidores.

Conclusão

Novas tecnologias estão impulsionando a demanda por taxas de transferência de dados mais rápidas, latências mais baixas e maior poder de processamento nos centros de dados, enquanto comunidades, governos e empresas se concentram na gestão de recursos e nas preocupações crescentes de sustentabilidade em torno do uso de água, gestão de energia e outros aspectos intensivos em carbono da criação, uso e implantação de tecnologia. A adoção de tecnologias de código aberto, desenvolvidas em fóruns comunitários, como a SSIA e a Linux Foundation, pode ajudar os operadores de centros de dados a maximizar suas operações atuais e se preparar para um futuro mais sustentável, à medida que atendem às demandas dessas novas aplicações emocionais.

Zac Smith, Membro do Conselho Comunitário, SSI Alliance. Zac tem sido um inovador regular na indústria de nuvem e datacenter por mais de 20 anos. Mais recentemente, Zac liderou o lado de infraestrutura digital da Equinix após a empresa adquirir a Packet, uma empresa que ele co-fundou em 2014 para fornecer capacidades de datacenter automatizadas para empresas digitais líderes. Antes da Packet, Zac foi um membro precoce da Voxel, uma empresa de nuvem baseada em Linux adquirida pela Internap em 2011.