La demanda por aplicaciones de big data pueden generar mucha presión sobre el centro de datos. La TI tradicional busca operar de manera estable, con un uptime máximo y un equilibrio continuo. Después de todo, la mayoría de las aplicaciones tienden a tener una carga computacional ligera, operan dentro de una máquina virtual y usan solo algunos de sus recursos.
Las aplicaciones de big data, por otro lado, tienden a gastar enormes cantidades de carga computacional. También tienden a presentar picos de actividad, comienzan y finalizan en un momento en particular.
“Big data realmente está cambiando la forma en que están operando los centros de datos y algunas de las necesidades que tienen”, señala Rob Clyde, CEO de Adaptive Computing, firma especialista en ambientes de cómputo técnicos y de nube privada/híbrida. “El centro de datos tradicional se centra bastante en lograr equilibrio y uptime”.
“Por el lado del big data, los cronogramas son fundamentales”, añade. “Sin ellos, uno termina con un verdadero atasco”.
En este sentido, Adaptive Computing lanzó su solución Big Workflow, la cual se encuentra diseñada para aprovechar la computación de alto desempeño (high-performance computing, HPC) y la tecnología de nube para ayudar a las grandes empresas a enfrentar ese problema.
Clyde afirma que Big Workflow se basa en Moab HPC Suite y Moab Cloud Suite de Adaptive Computing para permitir a los centros de datos usar todos los recursos disponibles -que incluyen bare metal y máquinas virtuales, ambientes técnicos de computación (como HPC y Hadoop), la nube (pública, privada e híbrida) e incluso plataformas agnósticas que abarcan varios ambientes (como OpenStack)- como un solo ecosistema que se adapta a la demanda de las cargas de trabajo.
A su vez, esto permite al centro de datos optimizar el proceso de análisis para entregar un flujo de trabajo organizado, que incremente el rendimiento y la productividad mientras que al mismo tiempo reduce los costos, la complejidad y los errores. También permite a los centros de datos garantizar los servicios que aseguran los acuerdos de nivel de servicio (SLA, por sus siglas en inglés), maximizar el uptime, y demostrar que los servicios fueron entregados y los recursos fueron asignados correctamente.
“La explosión del big data, junto con las colisiones de la HPC y la nube, son las que dirigen la evolución de la analítica del big data”, sostiene Clyde. “Un enfoque de Big Workflow al big data no solo ofrece inteligencia de negocio de manera más rápida, exacta y costo efectiva, sino que también proporciona una ventaja competitiva distintiva. Confiamos que Big Workflow permitirá a las empresas de todas las industrias aprovechar el big data que inspira las decisiones fundamentales y basadas en datos”.
Thor Olavsrud, CIO (EE.UU.)