talón La IA y la RA están impulsando la demanda de datos: el hardware de código abierto está a la altura del desafío - Unite.AI
Contáctanos

Líderes del pensamiento

La IA y la RA están impulsando la demanda de datos: el hardware de código abierto está a la altura del desafío

mm

Publicado

 on

Los datos son el alma de la economía digital y, a medida que surgen y evolucionan nuevas tecnologías, la demanda de velocidades de transferencia de datos más rápidas, latencias más bajas y mayor potencia informática en los centros de datos está aumentando exponencialmente. Las nuevas tecnologías están superando los límites de la transmisión y el procesamiento de datos, y la adopción de tecnologías de código abierto puede ayudar a los operadores de centros de datos a maximizar sus operaciones actuales y prepararse para el futuro. A continuación se muestran algunos ejemplos de tecnologías que impulsan la demanda de alta computación y formas en que la tecnología, las comunidades y los estándares de código abierto están ayudando a abordar esta demanda a escala de manera sostenible.

Inteligencia Artificial y Aprendizaje Automático

Las tecnologías de inteligencia artificial (IA) y aprendizaje automático (ML) están revolucionando varios ámbitos, como procesamiento natural del lenguaje, visión de computadora, reconocimiento de voz, sistemas de recomendación y vehículos autónomos. La IA y el ML permiten a las computadoras aprender de los datos y realizar tareas que normalmente requieren inteligencia humana.

Sin embargo, la IA y el ML también requieren cantidades masivas de datos y potencia informática para entrenar y ejecutar modelos y algoritmos complejos. Por ejemplo, GPT-3, uno de los modelos de lenguaje natural más avanzados del mundo, tiene 175 mil millones de parámetros y fue entrenado con 45 terabytes de datos de texto. Para procesar de manera eficiente conjuntos de datos y modelos de gran escala, las aplicaciones de IA y ML necesitan sistemas informáticos de alto rendimiento (HPC) que puedan ofrecer velocidades de transferencia de datos de alta velocidad, bajas latencias y una alta potencia informática.

Una de las tendencias emergentes en HPC es utilizar procesadores especializados, como GPU o TPU, que están optimizados para el procesamiento paralelo y operaciones matriciales que son comunes en las cargas de trabajo de IA y ML. Por ejemplo, la CPU Grace de NVIDIA es un nuevo procesador diseñado específicamente para aplicaciones HPC que aprovecha la tecnología GPU de NVIDIA para ofrecer un rendimiento hasta 10 veces más rápido que las CPU x86 actuales. Grace CPU también admite interconexiones rápidas como NVLink que permiten velocidades de transferencia de datos de alta velocidad entre CPU y GPU.

Realidad Aumentada y Realidad Virtual

El Apple Vision Pro causó sensación durante su presentación. La realidad aumentada (AR) y la realidad virtual (VR) son dos de las tecnologías más inmersivas e interactivas que están transformando diversas industrias como el entretenimiento, la educación, la atención médica y la manufactura. La realidad aumentada superpone información digital sobre el mundo real, mientras que la realidad virtual crea un entorno totalmente simulado que los usuarios pueden experimentar a través de unos auriculares.

Sin embargo, estas tecnologías también plantean desafíos importantes para la transferencia y el procesamiento de datos. Debido a su reciente lanzamiento, los detalles sobre Apple Vision Pro aún están pendientes. Sin embargo, otros cascos de realidad virtual han estado disponibles desde hace algún tiempo, por lo que podemos hacer algunas suposiciones. Por ejemplo, los cascos de realidad virtual como Oculus Quest 2 requieren una conexión de alta velocidad a una PC o un servidor en la nube para transmitir contenido de audio y video de alta calidad, así como el seguimiento y la entrada de datos desde los cascos y los controladores. La tasa de bits de video, que es la cantidad de datos transferidos por segundo, depende de la velocidad a la que la GPU puede codificar la señal en la PC o el servidor, y de la velocidad a la que el procesador Quest 2 puede decodificar la señal en el lado de los auriculares. .

Según Oculus, la tasa de bits recomendada para la transmisión de realidad virtual es de entre 150 Mbps y 500 Mbps, según la resolución y la velocidad de fotogramas. Esto significa que la transmisión de realidad virtual requiere una tasa de transferencia de datos mucho mayor que otras actividades en línea, como la navegación web o la transmisión de música. Además, la transmisión de realidad virtual también requiere una baja latencia, que es el tiempo que tarda una señal en viajar de un punto a otro. Una latencia alta puede provocar un juego lento o nervioso, lo que puede arruinar la inmersión y provocar mareos.

La latencia depende de varios factores como la velocidad de la red, la distancia entre los dispositivos y los algoritmos de codificación y decodificación. Según Oculus, la latencia ideal para la transmisión de realidad virtual es inferior a 20 milisegundos. Sin embargo, alcanzar este nivel de rendimiento no es fácil, especialmente a través de conexiones inalámbricas como Wi-Fi o 5G.

Tecnologías de código abierto para la optimización del centro de datos

A medida que las nuevas tecnologías impulsan la demanda de velocidades de transferencia de datos más rápidas, latencias más bajas y mayor potencia informática en los centros de datos, los operadores de centros de datos enfrentan varios desafíos, como el aumento del consumo de energía, la exigencia de nuevos requisitos de refrigeración, la utilización del espacio, los costos operativos y un ritmo rápido de innovación y actualización de hardware. Para abordar estos desafíos, los operadores de centros de datos deben optimizar su infraestructura actual y adoptar nuevos estándares y tecnologías que puedan mejorar su eficiencia y escalabilidad.

Este es el objetivo del Proyecto Open19, un Alianza de infraestructura sostenible y escalable La iniciativa ahora forma parte de la Fundación Linux. El Proyecto Open19 es un estándar abierto para hardware de centros de datos que se basa en factores de forma comunes y proporciona distribución de energía altamente eficiente de próxima generación, componentes reutilizables y oportunidades para interconexiones emergentes de alta velocidad. La misión de SSIA y los estándares abiertos creados a través del proyecto Open19 están en sintonía con el impulso más amplio de la industria hacia la eficiencia, la escalabilidad y la sostenibilidad de la infraestructura que impulsa nuestras vidas y comunidades digitales. El Abra Compute Project es otro esfuerzo para respaldar eficientemente las crecientes demandas de infraestructura informática. De manera similar, este proyecto fomenta la colaboración impulsada por la comunidad entre socios de la industria para desarrollar soluciones de centros de datos, con un enfoque en tamaños de rack de servidores de 21 pulgadas que suelen utilizar las grandes empresas e hiperescaladores. El alcance de OCP también se extiende a las instalaciones del centro de datos, así como a los componentes internos de TI de los servidores.

Conclusión

Las nuevas tecnologías están impulsando la demanda de velocidades de transferencia de datos más rápidas, menores latencias y mayor potencia informática en los centros de datos, mientras que las comunidades, los gobiernos y las empresas se centran en la gestión de recursos y en las crecientes preocupaciones de sostenibilidad en torno al uso del agua, la gestión de la energía y otros aspectos de la tecnología que consumen mucho carbono. creación, uso y despliegue. La adopción de tecnologías de código abierto, desarrolladas en foros impulsados ​​por la comunidad como SSIA y Linux Foundation, puede ayudar a los operadores de centros de datos a maximizar sus operaciones actuales y prepararse para un futuro que sea más sostenible a medida que cumplan con las demandas de estas nuevas e interesantes aplicaciones.

Zac Smith, miembro de la junta comunitaria, Alianza SSI.

Zac ha sido un innovador habitual en la industria de la nube y los centros de datos durante más de 20 años. Más recientemente, Zac dirigió la parte de infraestructura digital de Equinix después de que la empresa adquiriera Packet, una empresa que cofundó en 2014 para proporcionar capacidades de centros de datos automatizados a empresas digitales líderes. Antes de Packet, Zac fue uno de los primeros miembros de Voxel, una empresa de nube basada en Linux adquirida por Internap en 2011.