La demanda de cada vez más ancho de banda para ejecutar Inteligencia Artificial (IA) fue evaluado por el más reciente estudio de Ciena.
La investigación determinó el rol de los centros de datos frente a la actual y futura demanda. También la necesidad de incorporar IA para hacer la infraestructura más sustentable.
Las distintas posibilidades de la Inteligencia Artificial (IA) están transformando muchas de las actividades que realizamos cada día.
En general, se estima que pueden mejorar la eficiencia y productividad, tanto de muchos verticales de empresas como áreas.
La atención al cliente, la creación de contenidos, así como el procesamiento de grandes volúmenes de datos para análisis y toma de decisiones son algunas de las áreas que se benefician de estas tecnologías.
Pero, para disfrutar de sus beneficios, empresas y sociedades deben fortalecer tanto su infraestructura de procesamiento de datos como eléctrica y de conectividad.
Es por ello que podemos hablar de una revolución, pues impacta a suficientes sectores como para generar transformaciones tan profundas como de largo plazo.
“Históricamente, el tráfico de red ha crecido a un ritmo del 20% al 30% anual. Se prevé que la IA acelere drásticamente este crecimiento”, destacó el Chief Technology Officer Internacional de Ciena, Jürgen Hatheier.
Para el CTO, todo ello ha ocasiona que los operadores estén replanteando sus arquitecturas y planificando cómo satisfacer esta demanda de forma sustentable.
Crear redes impulsadas por IA más sustentables
Una encuesta, realizada en colaboración con Censuswide para Ciena, consultó a más de 1.303 trabajadores de centros de datos (CD) de más de 25 años a tiempo completo, responsables de la planificación o compra de infraestructura.
Los encuestados confirman que existe una creciente oportunidad para que las ópticas conectables (pluggable optics) satisfagan las demandas de ancho de banda y aborden los desafíos de energía y espacio.
Según la encuesta, el 98% de los expertos en centros de datos cree que las ópticas conectables son importantes para reducir el consumo de energía y el espacio físico de su infraestructura de red.
Computación Distribuida
La encuesta de Ciena reveló que, a medida que aumentan los requisitos de computación por la Inteligencia Artificial (IA), el entrenamiento de Modelos de Lenguaje Extensos (LLM, Large Language Model) se distribuirá más entre diferentes centros de datos de IA.
Según la investigación, el 81% de los encuestados cree que el entrenamiento de LLM se realizará en algún nivel de instalaciones de centros de datos distribuídos. No obstante, ello requerirá que las soluciones DCI estén conectadas entre sí.
Al preguntarles sobre los factores clave que determinarán dónde se implementará la inferencia de IA, los encuestados clasificaron las siguientes prioridades:
- La utilización de los recursos de IA a lo largo del tiempo es la máxima prioridad (63%)
- Reducción de latencia ubicando el procesamiento de inferencia más cerca de los usuarios en el borde (56%)
- Requerimientos de soberanía de datos (54%)
- Oferta de ubicaciones estratégicas para clientes clave (54%)
En lugar de implementar fibra oscura, la mayoría (67%) de los encuestados espera utilizar redes de fibra óptica administradas (MOFN, Managed Optical Fiber Networks).
Estas utilizan redes de alta capacidad gestionadas por operadores para la conectividad de larga distancia (long haul) de centros de datos.