Ahora que la Inteligencia Artificial (IA) pone a prueba la capacidad de los centros de datos, el ASUS AI POD es una opción para escalar.
La nueva solución incorpora, además, las capacidades de la plataforma NVIDIA GB200 NVL72, para que sus clientes tengan un ecosistema de servicios.
Con cierta ligereza, se habla de la era de la Inteligencia Artificial (IA), a partir de la liberación del chat de IA generativa (GenIA) de OpenAI.
Lo cierto es que, para llegar al ChatGPT de esa compañía se requirió de avances importantes en la creación de dispositivos de procesamiento de datos.
Del mismo modo, tanto los avances por venir como la adopción generalizada por parte de las empresas requieren no solo dispositivos con mayor capacidad de procesamiento.
Además, se precisa de dispositivos con mejor conectividad pues buena parte de las herramientas actuales funcionan a través de plataformas: la infraestructura y el cloud computing son, entonces parte fundamental de la ecuación.
Para atender estos nuevos desafíos serán necesarios nuevos dispositivos y soluciones. Uno de los primeros es el ASUS AI POD, el cual incorpora la plataforma NVIDIA GB200 NVL72.
“Al utilizar el superchip NVIDIA GB200 Grace Blackwell y la tecnología de interconexión NVIDIA NVLink de quinta generación, ASUS AI POD ofrece un rendimiento y una eficiencia energética extraordinarios”, señala sobre la nueva solución para centro de datos una publicación en el blog de ASUS.
Mejorar los rendimientos
La solución para centro de datos ASUS AI POD con NVIDIA GB200 NVL72, ofrece un rendimiento diferenciado al mercado, gracias a la integración de GPU, CPU y switches.
Al utilizar el superchip NVIDIA GB200 Grace Blackwell y la tecnología de interconexión NVIDIA NVLink de quinta generación, ASUS AI POD ofrece un rendimiento y una eficiencia energética acorde con las demandas superiores que supone la IA.
Ello hace el dispositivo ideal para tareas que van desde el entrenamiento de modelos lingüísticos de billones de parámetros hasta la realización de inferencias de IA en tiempo real.
Veamos cuales son las capacidades de esta nueva solución:
- Rendimiento de IA excepcional: Un centro neurálgico que contiene 72 GPU Blackwell de NVIDIA, lo que permite multiplicar por 30 el rendimiento de la inferencia en tiempo real.
- Solución completa: Integra GPU, CPU y conmutadores NVIDIA NVLink para una comunicación ultrarrápida y de baja latencia que acelera el entrenamiento y la inferencia de trillones de parámetros LLM.
- Interconexión de alta velocidad: Incorpora la tecnología NVIDIA NVLink de quinta generación, que permite una comunicación fluida y un rendimiento superior.
- Cartera de refrigeración avanzada: Admite soluciones de refrigeración líquido-aire y líquido-líquido, lo que da rienda suelta a un rendimiento de computación de IA energéticamente eficiente a la vez que garantiza una disipación eficaz del calor.