Amazon Web Services ha lanzado Amazon Data Pipeline, una nueva herramienta diseñada para facilitar a los usuarios la integración de los datos almacenados en múltiples lugares dispares, para gestionar y analizarla.
Además de anunciar Pipeline, AWS también anunció dos nuevos servicios que podrían ser ideales para el procesamiento de grandes volúmenes de datos y hacer análisis.
Ambos anuncios se produjeron en la segunda y última jornada de la primera conferencia de usuarios de AWS en Las Vegas, llamada AWS re: Invent.
Amazon lanza base de datos de nube con las herramientas de análisis, y algo bien raro para América Latina la 27 baja de precios de sus servicios.
Lo que quedó de AWS re: Invent
Tras el anuncio de Redshift, la innovadora herramienta basada en la nube para almacenamiento de datos. Pipeline Data tiene la intención de ser capaz de tomar datos almacenados en Redshift, u otros servicios de AWS de almacenamiento, como DynamoDB – herramienta de la compañía de bases de datos NoSQL – o su servicio Simple Storage (S3) y manipular los datos para facilitar la gestión y la exposición a las herramientas de análisis .
Data Pipeline tiene una interfaz de arrastrar y soltar gráfico que permite a los usuarios manipular y recoger ideas de los datos almacenados, ya sea en la nube de AWS o en su propio equipo. “Este es el verdadero significado de ser un servicio web ligero para integrar conjuntos de datos dispares”, comentó Matt Wood, gran gurú de AWS Data.
A principios de este año lanzó AWS Glacier, un servicio de almacenamiento a largo plazo. En AWS re: Invent, AWS ha anunciado que su servicio S3 ahora cuenta con más de 1 billón de archivos y Redshift fue lo más destacado de la convocatoria de AWS en la conferencia.
Además de las noticias de canalización de datos, AWS también anunció dos nuevos tipos de instancias para su Elastic Compute Cloud (EC2) de servicios, dirigido específicamente a ayudar a los usuarios procesar grandes cantidades de datos.
Marcelo Lozano
Director de CIO AMERICA LATINA