No hay discusión: el análisis de datos es fundamental para que las empresas logren el máximo de su potencial en la actualidad. Pero no es magia: enfoque, habilidades y tácticas correctas son necesaria para que sume y no reste.
CIO AMÉRICA LATINA | Por Elibeth Eduardo | @ely_e
Desde que se inventó el intercambio de bienes en los albores de la humanidad, siempre se ha buscado contar con claves para una estrategia comercial exitosa. Seis mil años después, pareciera que el análisis de datos es el epítome de esta búsqueda, además de ser uno de los diferenciadores empresariales y tecnológicos más importantes para las organizaciones.
No sorprende: el mismo permite extraer conocimientos sobre virtualmente cualquier aspecto de sus operaciones y así obtener una ventaja sobre la competencia. De hecho, la firma de investigación Gartner predijo a principios de este año que 2017 será el año en que los datos y análisis se generalicen, creando valor tanto dentro como fuera de las organizaciones que se han preparado para el cambio.
Poco a poco comprobamos que los enfoques del análisis de datos se están volviendo más holísticos y abarcan todo el negocio, dice la firma. Entre las principales tendencias emergentes, según Gartner están que:
• Analytics impulsará las operaciones comerciales modernas, no solo reflejará su desempeño.
• Las empresas crearán arquitecturas de extremo a extremo que permitirán la administración y análisis de datos desde el núcleo hasta el borde de la organización.
• Los ejecutivos harán que los datos y los análisis sean parte de la estrategia comercial, permitiendo a los profesionales de datos y análisis asumir nuevos roles y crear crecimiento comercial.
En las manos correctas
Y las empresas están invirtiendo grandes cantidades de dinero en herramientas de análisis. International Data Corp. – mejor conocida como IDC – pronostica en marzo de 2017 que los ingresos mundiales por big data y análisis de negocios llegarán a US$ 150.800 millones este año, un aumento del 12% por ciento con respecto a 2016.
Además, la empresa estima que este incremento en los ingresos continuará hasta 2020, cuando los mismos alcanzarán más de US$ 210.000 millones.
Y sin embargo, con todo este énfasis en el análisis de datos, muchas organizaciones están cayendo en trampas que ponen en peligro o malgastan el verdadero valor de los análisis.
Aquí hay TRES (03) MANERAS seguras de fallar en el análisis, de acuerdo con los líderes de TI y los expertos de la industria.
1. Entrar sin saber lo que estás buscando
Sin saber qué tendencias o señales específicas examinar en sus datos, ¿cómo puede esperar extraer algún valor verdadero?
“El mayor problema en el proceso de análisis es no tener idea de lo que se está buscando en los datos. Esta idea detrás de la minería de datos que podría hacer que el sistema “descubra” qué es lo interesante en los datos ha llevado a muchas compañías a descarrilarse durante décadas “, dice Tom Davenport, asesor principal de Deloitte Analytics y autor del libro “Competir en Analítica: La nueva ciencia de ganar”.
Para el experto ni siquiera el aprendizaje automático compensa la carencia.
“Si tiene herramientas de machine learning, siempre será útil saber lo que está buscando en términos de relaciones entre los datos”, afirmó.
Es por eso que, según el gerente de control calidad de la startups Weather.com, Todd Eaton, esta empresa pone énfasis en encontrar personas que saben cómo consultar los datos y cuentan una historia completa y precisa de lo que los mismos intentan decirles.
“A las personas correctas les apasiona utilizar datos para responder preguntas y luego están dispuestos a cuestionar constantemente sus hallazgos para asegurarse de que los datos no solo encajen en una narración sino que, también, puedan explicar lo que estamos viendo y ayudar a predecir hacia dónde nos dirigimos. Es importante que todos sepan lo que estamos tratando de encontrar con los datos y nuestros objetivos generales, y recopilar mediciones y datos consistentes”, destacó Eaton.
Para los especialistas, una receta segura para el fracaso carece de enfoque cuando se inicia un esfuerzo de análisis.
“Los equipos de datos tendrán más éxito cuando se centren en un conjunto de resultados prioritarios. A menudo, los equipos se producirá un error, ya que se espera que para hacer frente a demasiadas exigencias empresariales a la vez, en última instancia, que se estira demasiado delgada y no hacer impacto significativo para mantener el interés o la financiación”, señala la directora de datos del conglomerado multinacional GE, Christina Clark.
2. Construir (y mantener) su propia infraestructura
Puede haber una fuerte tentación de construir y mantener su propia infraestructura de big data. Pero eso podría poner en peligro la misión de sus esfuerzos de análisis.
“Esto generalmente desperdicia mucho tiempo del científico de datos en tareas distintas a desarrollar mejores análisis”, asegura el CTO de la compañía de seguridad cibernética Vectra, Oliver Tavakoli.
Este especialista es categórico en señalar que no vale la pena, pues es un error que YA cometió, a un costo enorme de tiempo, dinero y esfuerzo.
“Sabíamos que queríamos una gran cantidad de datos para basar nuestra analítica. Empezamos haciendo lo que todos decían que hiciéramos: compramos un montón de servidores con mucha capacidad de disco, los pusimos en nuestra instalación de coubicación, creamos nuestro propio clúster de Hadoop en la parte superior con Apache Spark y tuvimos nuestros científicos de datos escribe el código Scala para interactuar con el clúster”, relató Tavakoli.
Luego comenzaron los “incidentes”: el clúster se rompía, a veces debido a fallas de hardware, más a menudo debido a fallas de software.
Los paquetes de software quedaban desactualizados y, a veces, pasaban horas sin que el clúster estuviera disponible.
“Finalmente tuvimos suficiente y decidimos subcontratar esta parte del problema”, dice Tavakoli.
Vectra fue con un proveedor externo y desde entonces según señala su CTO la empresa ha dedicado poco tiempo a los problemas prácticos, y casi todo el mismo ha sido para alimentar datos en el sistema y analizarlos.
3. Carecer de cultura y habilidades para soportar buenos análisis de datos
Este es un problema común para las organizaciones, en gran medida porque las habilidades tales como la ciencia de datos son muy difíciles de conseguir.
Pero si la alfabetización de datos no es central en la cultura de una empresa, las posibilidades de fracaso con la analítica son mayores.
“Para las personas que no están familiarizadas con el análisis, la ciencia de datos se percibe como una especie de forma mágica de resolver problemas. El concepto de predicción y autoaprendizaje es muy difícil de entender. Será difícil convencer a sus socios comerciales para que tomen decisiones sobre algoritmos opacos. Tendrás que educarlos primero “, señaló el CEO de la empresa de servicios de tecnología Incedo, TP Miglani.
Y las organizaciones continúan luchando para encontrar científicos de datos y otros profesionales con habilidades de análisis.
“Una de las mejores formas de desarrollar esta capacidad es preparar a este talento, en lugar de buscar superestrellas fuera de su organización. Muchos proyectos fracasan o se retrasan debido a que las empresas no son capaces de contratar a gente de análisis a tiempo, los pierden a gran escala por desgaste”, aseguró el CEO.
Así que, tómese su tiempo para hacer las cosas buen. Recuerde que las soluciones mágicas no existen aunque las tecnología nos haga pensar en ellas.
2 comentarios