Nuevas oportunidades de trabajo están surgiendo para profesionales de TI en el ámbito de los grandes datos o “Big data”, el término utilizado para describir cómo las empresas reúnen grandes cantidades de datos en tiempo real sobre sus clientes, y analizan esos datos para impulsar la toma de decisiones y aumentar la rentabilidad.
Un nuevo tipo de trabajo –científico de los datos– está en boga. Un científico de datos normalmente tiene una formación en ciencias de la computación y matemáticas, así como las habilidades analíticas necesarias para encontrar la proverbial aguja en un pajar de datos recopilados por la corporación.
“Un científico de los datos es alguien que es curioso, que puede mirar los datos y detectar tendencias”, señala Anjul Bhambhri, vicepresidente de Big Data Products en IBM. “Es casi como una persona del renacimiento que realmente quiere aprender y lograr un cambio en una organización”.
Desconocido hasta hace 18 meses, el “científico de datos” ha explotado en popularidad como término de búsqueda en Google. El número de búsquedas en Google de “científico de datos” golpeó picos 20 veces superiores a lo normal en el último trimestre del 2011 y el primer trimestre del 2012. Se trata de un término popular de búsqueda en los puntos de acceso de alta tecnología, tales como San Francisco, Washington, DC, y Nueva York.
Entre las empresas estadounidenses que buscan contratar a los científicos de datos están PayPal, Amazon y HP. De hecho, el término “científico de datos” se menciona en 195 ofertas de trabajo en el sitio web para profesionales de TI, Dice.com.
Los departamentos de TI también están agregando a desarrolladores centrados en los datos y a administradores de sistemas que se especialicen en herramientas, como el software de código abierto Apache Hadoop. Hadoop ha sido diseñado para uso intensivo de datos en aplicaciones distribuidas y utilizadas por sitios web populares como Yahoo, Facebook, LinkedIn y eBay.
Hadoop se menciona en 612 de 83,122 listados de trabajo en Dice.com. Entre las empresas que buscan contratar a ingenieros y desarrolladores de software Hadoop están AT&T Interactive, Sears, PayPal, AOL y Deloitte.
Hadoop “es una habilidad emergente”, señala Alice Hill, director general de Dice.com. “Las empresas necesitan gestionar operaciones de datos a gran escala, y la idea de Hadoop es que pueda hacerlo a bajo costo. Eso funciona muy bien con lo que estamos viendo en términos del movimiento de la nube”.
Hill ve oportunidades relacionadas con Hadoop, tanto para el personal de TI principiante como para el experimentado, así como para especialistas en hardware y software.
“El personal tradicional de hardware tiene que averiguar cómo agruparse en diferentes ambientes. No se trata solo de comprar una base de datos y conectarla a un disco duro. Ahora tiene bases de datos distribuidas que están conectados a múltiples servidores y múltiples unidades de disco duro”, señala Hill. Hadoop “es barato, pero requiere a alguien que realmente sepa cómo escalar el hardware”.
Hill añade que es bueno que los profesionales de TI con experiencia en base de datos relacionales sepan cómo usar Hadoop. “Si realmente entiende la estructura y consultas de datos, va a tener muchas oportunidades de trabajo”, añade.
Las oportunidades de empleo para científicos y especialistas de datos Hadoop están surgiendo en todas las industrias, desde empresas web a e-minoristas y servicios financieros, salud, energía y medios de comunicación.
“Hay tantas direcciones a las que puede ir con estas habilidades de gestión de datos”, añade Hill. “Es un terreno muy fértil para los profesionales de TI experimentados, pero también para la gente que tiene grados en ciencias informáticas. Es una zona ideal para especializarse”.
Nueva Carrera TI
Bhambhri añade que los departamentos de TI buscarán contratar a gente nueva en el área de los grandes datos, así como re entrenarán a una parte de su personal existente para agregar el análisis de datos y la programación relacionada con Hadoop y habilidades administrativas. Por ejemplo, IBM re entrenó a 2.400 profesionales de TI en Big Data Bootcamps que mantuvo para sus clientes y socios el año pasado.
“Los departamentos de TI realmente tienen que ampliar sus plataformas de datos y no limitarse a los repositorios de datos estructurados”, señala Bhambhri. “Tienen que traer nuevas fuentes de datos no estructurados a sus plataformas para responder a las preguntas que los ejecutivos de nivel C están haciendo sobre sus procesos de decisión. Desde una perspectiva de TI, es muy importante que el personal de TI no solo identifique estas fuentes de datos, sino que trabajen con sus contrapartes de negocios para descubrir qué otras fuentes de datos deben estar perfectamente integradas en sus plataformas”.
IBM cuenta con una nueva iniciativa llamada Big Data University dirigida a la formación de estudiantes de pregrado y postgrado en el área de los grandes datos y exponiéndolos a Hadoop. Lanzada en octubre pasado, la Big Data University ya ha atraído a más de 14 mil estudiantes que se han inscrito en sus cursos en línea. IBM ofrece seis cursos en línea relacionados con Hadoop y grandes datos.
“Estamos tratando de que los estudiantes vean el potencial real de los grandes datos y qué resultados del negocio pueden ser de estas nuevas fuentes de datos”, añade Bhambhri. “Les estamos dando casos uso de empresas minoristas, asistencia sanitaria y telecomunicaciones. Les estamos mostrando lo que antes no era posible y ahora es posible gracias al trabajo que hemos hecho con los diferentes clientes en estas diferentes industrias”.
Bhambhri es optimista sobre las perspectivas de carrera para los profesionales de TI con capacidades de administración de datos y Hadoop.
“En todas las industrias, hay una gran cantidad de datos que se están capturando, ya sean datos de censos, de registro o procedentes de los medios sociales como Facebook y Twitter”, señala Bhambhri. “Los volúmenes de los datos son enormes. Entonces, lo qué ha estado sucediendo es que muchos de nuestros clientes están capturando los datos, pero hasta ahora no existía la tecnología para analizarlos rápidamente de una manera rentable. Ese fue un enorme cuello de botella. Ahora leemos lo que Yahoo y Google están haciendo en torno a Hadoop y MapReduce, y ciertamente parece que estas herramientas de código abierto van a resolver ese cuello de botella”.
Carolyn Duffy Marsan, Network World (EE.UU.)