La arquitectura en memoria de SAS es la misma que utiliza Visual Analytics y ofrece una gran velocidad de gestión de datos, permitiendo a las empresas crecer gracias a un mejor conocimiento del Big Data.
SAS está desarrollando un entorno interactivo de programación analítica para el marco de código abierto, Hadoop, basado en la tecnología SAS in-memory. El nuevo software permitirá a las organizaciones extraer información de cualquier volumen y cantidad de datos con mayor rapidez y precisión, impulsar sus resultados, reducir los riesgos, mejorar la comprensión del cliente e incrementar las oportunidades de éxito.
La solución SAS In-Memory Statistic for Hadhoop permitirá a múltiples usuarios, simultánea e interactivamente, a gestionar, explorar y analizar datos, construir y comparar modelos y tratar grandes cantidades de datos en Hadoop. El lanzamiento del nuevo software de SAS está previsto para el primer semestre de 2014 y se espera que aumente notablemente la productividad de los data scientists o analistas de datos.
“Con SAS In-Memory Statistics para Hadoop, los datos de Hadoop se cargan y mantienen en la memoria para múltiples análisis en una misma sesión y para más de un usuario”, ha explicado Christian Gardiner, director general de SAS España.
La arquitectura en memoria de SAS, es la misma que utiliza SAS Visual Analytics y ofrece una gran velocidad de gestión de datos. Según Gardiner, “los data scientists, programadores y estadistas no necesitarán nunca más una gran variedad de herramientas, porque estamos eliminando la necesidad de utilizar diferentes lenguajes de programación analítica.SAS In-Memory Statistics para Hadoop incluye toda la gama de técnicas analíticas y provee al profesional de un medio rápido, poderoso y comprensivo para el análisis colaborativo”.
Entre las numerosas técnicas analíticas y de programación incluidas en Hadoop se encuentran: clustering, regresión, generación de modelos lineales, análisis de variantes, árboles de decisión, análisis de textos y recomendación de sistemas.
Hadoop distribuye datos entre una amplia variedad de servidores e implementa los procesos en paralelo. También detecta y gestiona los fallos, algo crítico para los sistemas de procesamiento distribuido. Además de reducir el coste del hardware distribuido y de tener una red de seguridad con redundancia de datos, los avances de Hadoop incluyen el procesamiento paralelo de datos, escalabilidad y flexibilidad de almacenamiento.