En los últimos años, debido al avance de la Tecnología de la Información, asistimos a una verdadera explosión en la cantidad de datos disponibles, listos para ser analizados y así convertir información importante para la inteligencia de negocio. Este nuevo escenario se refiere no sólo al volumen de datos, sino también a la velocidad, complejidad y variedad de los tipos de información disponible, como acontece con los datos de las redes sociales, logs de acceso a Internet o datos generados por máquinas, por ejemplo.
Por lo tanto, los modelos tradicionales de data warehouse y soluciones analíticas, desarrolladas para ofrecer soporte a ese mundo de informaciones, encuentran un nuevo desafío relacionado, sobre todo, a la manipulación de ese contenido, acompañado de toda esa complejidad y dinamismo: es aquí donde surge el concepto de Big Data.
Los Big Data o Grandes Datos son datos ricos y extremamente útiles para análisis, pero que no son –inicialmente- disponibles de una manera estructurada, ya sea por la alta velocidad con que son producidos o por los mecanismos a través de los cuales son generados. Siendo así, más allá de la gran cantidad de información disponible hoy, los Big Data se relacionan directamente a la capacidad de manipular y analizar datos multi-estructurados no relacionados, que requieren de una interacción rápida y adaptable.
Como soporte a esa nueva realidad, ya están disponibles nuevas técnicas y tecnologías como MapReduce o Hadoop, que resuelven limitaciones de SQL tradicional, para tratar los variados tipos de datos complejos disponibles en Internet o en otras fuentes. Desde el punto de vista de hardware, los Big Data pueden recurrir a tecnologías existentes, como las arquitecturas de Procesamiento Paralelo Masivo (MPP), que permiten el rápido procesamiento de estos grandes y complejos volúmenes de datos.
Muchas empresas ya están comenzando a desarrollar su propia lógica utilizando ese tipo de infraestructura, posibilitando análisis importantes como el comportamiento de los clientes en casos de optimización del marketing digital, las interacciones entre usuarios en las redes sociales, transacciones e interacciones on-line para detección y prevención del fraude y la eficiencia operacional por datos generados por máquinas, entre otros.
En esos escenarios, surge también la figura del científico de datos o desarrollador analítico, que es un profesional responsable por el desarrollo e implementación de esos tipos de análisis para beneficio del negocio. Este no es el mismo analista tradicional de BI (Business Inteligence) que conocemos hoy; son personas que conocen con detalle la necesidad del negocio, los datos disponibles y, al mismo tiempo, utilizan estas nuevas tecnologías para perfeccionar análisis que puedan traer nuevas directrices para la gestión estratégica.
Naturalmente, hay una cuestión importante para ser discutida entre los usuarios y sus profesionales de TI, sobre la madurez de estos grupos para utilizar este potencial en beneficio de las empresas. Esto sucede porque muchos de ellos están en torno al desarrollo e implementación de proyectos relacionados con los sistemas, aplicaciones y análisis tradicionales de BI, que también son necesarios y vitales pero que -muchas veces- consisten básicamente en la obtención de datos de sus fuentes tradicionales de origen (tales como el ERP) a fin de disponerlos en informes pre-concebidos para los usuarios.
En este vasto universo de capacidades analíticas, el contexto de los Big Data incrementa el potencial de las empresas, aprovechando la utilización de las nuevas tecnologías y herramientas cada vez más importantes para el análisis de las inagotables fuentes de información que están disponibles hoy, trayendo consigo conocimiento, nuevas perspectivas y oportunidades para vencer en un mercado cada vez más competitivo.