A pesar de los masivos avances tecnológicos y la aparición de nuevas tácticas, la actual infraestructura de administración de datos de las organizaciones de TI mantiene el mismo objetivo general: mover los datos desde el momento de su creación y hacerlos accesibles y comprensibles para quienes toman las decisiones, cuando los necesitan.
El mayor obstáculo de los últimos años dentro del entorno de datos moderno tal vez hayan sido las nuevas fuentes de datos que generan cantidades de datos sin precedentes, generalmente con muy poca estructura (si es que la tienen). De secuencias de clics, registros de servidor y redes sociales a lecturas de máquinas y sensores, el salto en la cantidad de datos de estas fuentes ha sido literalmente abrumador. Desde un punto de vista económico y de rendimiento, los almacenes de datos corporativos tradicionales (EDW, por su sigla en inglés) no pueden seguirle el paso a esta marea de información.
Esto ha provocado un replanteamiento completo de las estrategias de obtención y análisis de datos, y ha llevado a una nueva generación de soluciones de almacenamiento de datos, concentrada en la captura libre de esquemas, la escalabilidad del hardware y el movimiento de las capacidades de cálculo más cerca de los almacenes de datos (o incluso en estos mismos).
A pesar de ser todavía jóvenes en comparación con los estándares de base de datos relacionales, estas nuevas soluciones no relacionales han ganado gran fuerza en los últimos años y madurado rápidamente para respaldar algunas de las empresas más grandes y complejas del mundo. Y aunque esto se ha realizado principalmente para complementar las infraestructuras de datos empresariales existentes, crea al mismo tiempo un complejo ecosistema de datos que TI debe administrar.
Otro de los obstáculos que deben superar los grupos de TI en su misión constante de mantener un sano entorno de datos es la disponibilidad de los datos desde aplicaciones en la nube. Muchas organizaciones mantienen soluciones en la nube, como Google Analytics, Salesforce, Netsuite y Zendesk, entre otras, en el centro de su infraestructura.
La tendencia emergente al análisis de autoservicio para organizaciones de todos los tamaños significa que cada vez son más los usuarios no técnicos (sin capacitación formal en TI/datos) que obtienen datos y generan informes a partir de ellos. Las empresas que adoptan este movimiento suelen notar una reducción dramática de las responsabilidades de TI de originar análisis (si es que estas no desaparecen por completo).
Mientras que este cambio es fundamental para el éxito general de una organización que adopta una mentalidad basada en los datos, genera nuevas presiones a los grupos de TI en cuanto a asegurar la administración de los datos, y brindar capacitación y tecnologías de análisis de datos.
En un esfuerzo por cumplir con estos nuevos desafíos, muchas organizaciones de TI se apuran en adoptar nuevas tecnologías y tácticas, pero no ven cómo estos obstáculos han cambiado la forma en que los grupos de tecnologías de la información deben enfrentarse a la tarea de administrar datos de “la creación al consumo”.
Las soluciones de Big Data, la integración de datos en la nube y el análisis de autoservicio son respuestas a problemas tecnológicos mayores. Sin embargo, para implementarlos eficazmente en una organización, es necesario cambiar las directrices de TI.
Este artículo de Tableau intenta delinear los tres mayores cambios con respecto al entorno de datos moderno que deben comprender los líderes de las tecnologías de información para poder respaldar la toma de decisiones basada en datos dentro de sus organizaciones. Para tener acceso a la totalidad del contenido, sólo tienes que completar el formulario que acompaña este post.