Menú Cerrar

Morris & Opazo y AWS desarrollan primer Workshop de Big Data Analytics 2019: “Construyendo un Data Lake”

Morris & Opazo y AWS desarrollan primer Workshop de Big Data Analytics 2019: “Construyendo un Data Lake”

En un mundo cada vez más digitalizado, la información se ha vuelto un recurso sumamente valioso, en especial para las empresas e instituciones que a diario trabajan en torno a esta. El poder de este gran volumen de contenido conocido como Big Data reside precisamente en la capacidad de extraer datos valiosos para tomar decisiones oportunas y lograr ventajas competitivas.

Partiendo de este contexto, Amazon Web Services Chile (AWS) y Morris & Opazo, Partner Advanced especialista en Big Data, han realizado durante este jueves 04 de abril, un Workshop con diferentes empresas e instituciones públicas denominadas “Construyendo un Data Lake en AWS” .

En esta ocasión se contó con la participación de representantes de Autofin, ABCdin, PUC, Ministerio de Educación, Ministerio de Salud, División de Gobierno Digital, Pontificia Universidad Católica de Chile, Tesorería General de la República de Chile, entre otros.

El espacio de capacitación que se mantuvo en los espacios de Amazon Web Services en Chile, estuvo a cargo de Gerardo Gómez Dobree, South America Public Sector Country Sales at Amazon Web Services, quien durante la primera parte del encuentro expuso los importantes avances que ha logrado AWS para el mercado internacional en torno a aspectos fundamentales de la Nube.

Su temática estuvo centrada en los principales servicios que ofrece AWS, Mejores Prácticas de la Arquitectura de la Nube, distintos enfoques para implementar Arquitecturas en AWS, el Modelo de Responsabilidad Compartida, las Regiones y Zonas de Disponibilidad en AWS.

Sobre el concepto y contexto actual del Big Data Analitycs, Marcelo Rybertt, Country Manager de Morris & Opazo, profundizó la temática del Data Lake, así como los servicios y herramientas que nos proporciona la plataforma de AWS para llevar a cabo la ejecución de los distintos componentes del flujo de datos.

Como apoyo técnico y para aclarar las distintas dudas de los participantes, estuvo presente por parte del equipo de AWS, Pamela Orbenes, Regional Partner Manager – Latam, quien tuvo la oportunidad de desarrollar la posibilidad de aplicación de Big Data dentro de cada empresa.

Finalmente, para ver todo el contenido aprendido ahora en ejecución y en tiempo real, William Guzmán, Jefe de Servicios y Operaciones de Morris & Opazo, expuso tres de los múltiples casos de uso en los que Big Data puede respaldar las operaciones de una Empresa, los mismos se presentan a continuación:

Análisis en Tiempo Real de Sentimiento en Redes Sociales:

Twitter proporciona una excelente oportunidad de poner a prueba el concepto de Stream de Datos. Durante el Workshop se pidió a los asistentes que publicaran Tweets con ciertas palabras que serían reconocidas por una aplicación de Twitter.

Previamente en una instancia EC2 se ejecutó una aplicación en Nodejs que ‘escuchaba’ los tweets generados y seleccionaba los que contenían las palabras clave configuradas. Una vez se detectaron los tweets, esta aplicación en Nodejs alimentó un flujo de datos en Amazon Kinesis el cual enviaba a un bucket de S3 los tweets sin realizar hasta ese instante ningún tipo de análisis.

Una vez se almacenó un objeto en el Data Lake se ‘disparaba’ una función en AWS Lambda que, apoyada en Amazon Comprehend, identificaba las entidades de cada tweet y realizaba un análisis de sentimiento. Si el idioma original del tweet era diferente al inglés, la función Lambda utilizaba Amazon Translate para generar la traducción hacia este idioma. El resultado de estos 3 análisis (entidades, sentimientos y traducción) se almacenó de nuevo en el Data Lake (en cubos diferentes).

Amazon Athena era la encargada de analizar los datos no estructurados generados por la función Lambda, y hacía que esta información estuviera disponible para cualquier consumidor. El elegido para el Workshop fue Amazon Quicksight, en el cual los asistentes pudieron ver cómo los tweets que ellos mismos generaron durante la sesión aparecieron en las diferentes secciones del dashboard:

  • Tipos de Entidades más mencionadas
  • Sentimientos por minuto
  • Texto original, traducción y sentimiento de cada tuit
  • Localización geográfica del tuit

Análisis de Audio de las Llamadas de un Call Center con Machine learning

Por medio de un tablero implementado en Kibana, las empresas asistentes al Workshop vieron cómo diversos archivos de audio eran procesados y analizados para identificar en ellos las palabras clave, entidades, textos, datos y metadatos que contenían cada uno de ellos. Con esto podría evidenciar una de las Mejores Prácticas para Arquitecturas de la Nube, ya que no existe un rígido endurecimiento entre cada componente del flujo de datos (para este caso de uso se empleó Kibana como consumidor del Data Lake, sistema diferente al caso anterior pero basado en S3 como Data Lake).


Reconocimiento de Imágenes y Video usando Machine Learning

Los asistentes al evento podrán observar cómo un sistema apoyado en Amazon Rekognition estaba cargando una foto de una persona, para luego identificarse en un video o foto diferente si se encontró o no el rostro de la persona con la que se había operado el sistema.

No sólo era posible encontrar este tipo de coincidencias. Adicional a esto, Rekognition entregó información detallada sobre las etiquetas, rasgos, características y celebridades del video o foto en tiempo real.

Son precisamente este tipo de actividades las que permiten que AWS y Morris & Opazo puedan acercar a las Empresas todo el potencial que tiene la Computación en la Nube, en este caso en particular, el valor agregado que tienen las soluciones Big Data. Pero sobre todo, nos permiten escuchar ‘de primera mano’ las inquietudes que generan temas técnicos abordados de manera presencial, práctica y colaborativa. A todos los asistentes, ¡mil gracias por su activa participación en nuestro Workshop!

Como un socio de AWS con la Competencia de Big Data, hemos superado un alto nivel de requisitos tales como evidenciar nuestro profundo conocimiento técnico y/o experiencia en consultoría ayudando a empresas a evaluar y usar herramientas, técnicas y tecnologías de Big Data de forma productiva en AWS.

Esto significa que tenemos el conocimiento, la capacidad y las herramientas necesarias para ayudar a su organización a obtener el máximo provecho de sus cargas de trabajo de Big Data en AWS.



Publicado en Noticias

Artículos relacionados