Por Serdar Yegulalp
Microsoft quiere tener todos los análisis de datos de cualquier operación de ventas. Ya no hay dudas de ellos y lo dejó en claro cuando presentó los planes para la próxima interacción de muchos de sus productos, SQL Server y Microsoft Azure. Sus componentes, funcionarán con Hadoop dentro y fuera de Microsoft Azure. Estos productos están siendo diseñados como una sola plataforma de datos, y sin duda, este era el objetivo de Microsoft, incluso antes de Satya Nadella reemplazara a Steve Ballmer
Lo primero fue la vinculación de SQL Server y Hadoop en 2011. Ese año Microsoft añadió conectividad de SQL Server con la versión alojada en Azure de Hadoop, que fue ampliada un año después, con mayor almacenamiento y capacidad de procesamiento de Azure. Sin embargo, ahora Microsoft hizo una presentación pública para detallar su modelo de integración de estas tecnologías.
El primer y más obvio ingrediente es SQL Server 2014, con nuevas características como la conectividad Azure y procesamiento in-memory. Las cosas buenas no son simple propaganda; Test Center de InfoWorld estudió y observó a SQL Server 2014 y quedó impresionado por sus mejoras en el rendimiento, la funcionalidad de alta disponibilidad y de respaldo en Azure opciones.
Pero tener SQL Server como la única piedra angular para una gran operación de Big Data y análisis de datos (data analytics), es como tener a un avión de carga como su única forma de volar, en lugar de un 767 de pasajeros o del apoyo de un bimotor para las partidas rápidas.
No es de extrañar, entonces, que SQL Server necesite de una tecnología complementaria en forma de Sistema Analytics Platform (APS). Ya existe un enfoque de consulta de todo lo que ahora se utiliza, realizado por Hadoop de Microsoft Hortonworks, y por EMC / VMware Hadoop (spin-off Pivotal) . Cada empresa se jacta de la capacidad de aprovechar múltiples fuentes de datos, incluyendo Hadoop.
APS, es el sucesor de Microsoft Parallel Data Warehouse, y ha hecho lo mismo pero a la inversa: la extracción de datos a partir de Hadoop. Los detalles de cómo funciona este siguen siendo escasos, pero se presenta como un aparato, (Microsoft lo llama “grandes datos en una caja”).
La compañía también dio a entender que APS se puede utilizar para tomar los datos existentes confinados dentro de una organización, exportarlo a Azure, procesarlo allí, y trabajar con los resultados en herramientas como Excel.
En la mezcla también está el ostentosamente llamado Microsoft Azure Intelligent Systems Service (ISS), “un servicio basado en la nube para conectar, gestionar, capturar y transformar los datos generados por una máquina, independientemente del sistema operativo o la plataforma”.
ISS se ejecuta en Azure, un signo seguro de que los datos que se registran están destinados a ser almacenados, analizados y procesados. Una vez más, Pivotal viene a la mente cuando preguntaba cómo se pueden procesar los datos en los que ya está almacenado algo.
Esta última acción lleva más de un parecido con el Kinesis Services de Amazon aunque el enfoque de Amazon para el análisis de datos es mucho más que un kit de bricolaje, en el que el usuario dispone de varias piezas (ingestión de datos, almacenamiento de datos, análisis de datos), pero que tienen que ser improvisado a mano.
Microsoft asegura que la mayor parte de ese trabajo pesado ya está hecho, aunque sólo sea a fuerza de tener todos los productos bajo el logotipo de Microsoft y con un grado de interconectividad natal, donde las herramientas existentes de Microsoft, (el HDInsight-Powered Hadoop y Energy BI para Office 365, por poner dos ejemplos), también se utilizan.
La fórmula que Microsoft utiliza para describir las diferentes partes de su plataforma fue “datos + analytics + personas] @ la velocidad. ” El lado de “la gente” de la ecuación incluye una vez más los gustos de conectividad a datos a través de Microsoft Excel, una forma inteligente de mantener parte de la edición de escritorio de Microsoft Office relevante para los usuarios de negocios.