ANDY INGRAM
Juniper Networks
Andy Ingram es el vicepresidente de marketing de producto y desarrollo de negocio para el Negocio de Tecnologías de Fabric y Switching en Juniper Networks.
Cloud computing representa una nueva forma de entregar y consumir servicios sobre una red e infraestructura TI compartida. Antes, el hardware y software TI era adquirido y provisto físicamente en terreno. Con cloud computing, el valor de estos mismos productos de software y hardware son entregados bajo-demanda como servicios sobre la red. Cloud computing no sólo es relevante a los proveedores de servicio de red o proveedores de servicio basado en internet que ofrecen servicios cloud a consumidores, empresas o sector público las organizaciones de TI se están volviendo más agudamente concientes de la relevancia de cloud computing para sus propias operaciones.
Ahora es posible para las TI construir clouds privadas o aumentar sus recursos con clouds públicas que permiten que sus Data Centers se beneficien de este poderoso modelo de cómputo. Las lecciones aprendidas del cloud computing pueden mejorar vastamente la escala, agilidad y niveles de servicio de aplicación de Data Centers empresariales al igual que reducir costos. Lograr estos resultados requiere examinar de cerca la red en sí misma, la cual es la base del Data Center listo para cloud.
Interconectar un creciente número de dispositivos virtuales y físicos mientras se intenta simplificar la red para gestionar estos recursos a escala puede ser abrumador. La complejidad de gestión aumenta exponencialmente mientras se agregan más dispositivos. Esto frecuentemente requiere segmentación física, lo cual es ilógico versus construir grandes fuentes de recursos compartidos que maximizan la economía de escala.
Superar estos obstáculos requiere un cambio fundamental en la forma en que las organizaciones de TI empresarial construyen sus redes de Data Center Legacy. El éxito para construir una red de Data Center escalable y lista para cloud requiere tres pasos críticos:
(1) simplificar, (2) compartir y (3) asegurar.
Simplificar
La simplificación comienza al reducir el número de dispositivos autónomos. En el futuro, un switch lógico individual será capaz de escalar de forma segura y confiable a través del Data Center para conectar todos los servidores, almacenaje y dispositivos. Hasta que eso suceda, se pueden tomar medidas para consolidar las capas de redes consolidadas, aumentar la escala y desempeño sin agregar complejidad y reducir costos:
oAprovechar la densidad de dispositivos para reducir el número de dispositivos físicos.
oEmplear tecnologías que permitan que múltiples dispositivos físicos actúen como un único dispositivo lógico.
oReducir capas de switching a dos o menos.
oAsegurar conexiones de routing confiable entrando y saliendo del Data Center.
oMantener un SO común y un punto individual para monitorear y gestionar la red con APIs abiertos.
Compartir
Con una red más simple y escalable para soportar grandes fuentes de recursos, el próximo paso permite compartir dinámicamente los recursos para mayor agilidad. Esto requiere virtualización en dos niveles:
oLa virtualización de servidores, almacenajes y dispositivos.
oLa virtualización de la red misma
La virtualización minimiza la necesidad de segmentación física, permite capacidad y ancho de banda para ser compartido eficiente y flexiblemente para servicio multi-inquilino y de alta calidad. Las VLANs, zonas, MPLS y VPLS ofrecen formas efectivas de virtualizar la red dentro y entre los data centers empresariales.
Asegurar
Otro desafío implica mantener entornos confiables y escalar la seguridad para una gran fuente de recursos. Para complementar la simplificación y el compartir de un Data Center listo para cloud, los servicios de seguridad también deberían ser consolidados y virtualizados. Es vital para asegurar los datos y servicios en reposo y en tránsito usar esta y otras medidas de seguridad:
oAsegurar flujos hacia el Data Center. Autentificar y encriptar conexiones a puntos finales de red (SSL) y dispositivos empresariales (IPSec) mientras se reduce la proliferación de dispositivos. También es esencial para prevenir ataques de denegación-de-servicio e implementar firewalls para cuidar el borde y el perímetro.
oAsegurar flujos dentro del Data Center. Segmentar la red con VLANs, zonas, routers virtuales y VPNs, y usar firewalls para proteger tráfico de aplicación-a-aplicación –entre servidores, entre máquinas virtuales y entre unidades. También emplear políticas de seguridad, concientes de aplicación y basadas en identidad.
oEstablecer políticas a lo ancho de la red desde una ubicación central para asegurar el cumplimiento de normas de seguridad. Motores centralizados de reporte brindan visibilidad histórica y en tiempo real a aplicaciones y datos, y permiten que el departamento de TI realice evaluaciones de vulnerabilidad programadas.
Conclusión
Al repensar la tradicional estrategia legacy y prepararse para la llegada del cloud computing, es posible para las organizaciones de TI construir redes de Data Center que ofrezcan mayores economías de escala, niveles de servicio de aplicación mejorados, gestión más sencilla y menores costos. Simplificar, compartir y asegurar la red es crítico para lograr el éxito en la construcción de Data Centers listos para cloud. Dado que la Ley de Moore asegura que el avance tecnológico continúe haciendo que las redes de Data Center listas para cloud sean una realidad, las organizaciones de TI pueden tomar pasos decisivos que impulsen a los negocios más cerca de la promesa del mañana.