Associate Data Engineer

Buenos Aires, Argentina

Applications have closed

Descripción de la empresa

Digitas es una Agencia de Marketing Conectada, la cual forma parte del Grupo Publicis. Comprometidos a ayudar a las marcas a conectarse de manera eficiente con las personas. Con una diversa experiencia en datos, estrategia, creatividad, medios y tecnología, trabajamos en todas las capacidades y continentes para lograr resultados ambiciosos a través de ideas que entusiasman, provocan e inspiran. Curiosos y totalmente transparentes, siempre estamos examinando el comportamiento humano real para crear conexiones autenticas entre marcas, consumidores, clientes, partners e ideas.

Digitas tiene 3.300 empleados en 12 países y 24 oficinas, con una red extendida a través de Publicis Media de más de 23,500 empleados presentes en más de 100 países en todo el mundo.

Descripción del empleo

En esta posición buscamos una persona para desenvolverse dentro del equipo de Data Engineering para contribuir y aportar a los desarrollos que mantienen la infraestructura y el código encargados de procesar y disponibilizar la data requerida a otras áreas o clientes de la empresa, a la vez que aprende nuevas tecnologías y conocimientos además de los ya consolidados.

Tareas laborales

  • Realizar desarrollos utilizando mayormente Python, SQL y el stack de GCP (orientado principalmente a Big Data, utilizando servicios como BigQuery, Cloud Functions, Pub/Sub, Dataflow, entre otros).
  • Contribuir con el equipo en el desarrollo y mantenimiento de pipelines de datos y procesos ETL mediante servicios como Airflow y Workflows de GCP.
  • Incorporar nuevas fuentes de datos a partir de archivos externos, bases de datos y APIs de terceros, junto con el desarrollo de APIs propias basados en frameworks como Flask
  • Deployar sistemas en servicios Cloud del tipo IaaS, PaaS y SaaS utilizando tecnologías como Máquinas Virtuales, Docker y arquitecturas serverless.
  • Gestionar y administrar Google Cloud Platform (Seguridad, Recursos, Permisos, Usuarios, Alertas)
  • Modelar y administrar de bases de datos y componentes SQL/NoSQL, así como su exploración mediante queries.
  • Investigar, probar y desplegar tecnologías como Airflow, Jenkins, Pyspark, Python, Git, Linux, SQL, Hive, Hadoop, Docker.
  • Utilizar servicios de Google Cloud Platform como Cloud Functions, Cloud Run, App Engine, Compute Engine, BigQuery, Firestore, Cloud Storage, Firebase, Data Transfer, PubSub, Cloud Scheduler, DataFlow

Requisitos

  • Mínimo 1 año de experiencia laboral.
  • Rama de Ingeniería en sistemas o carreras afines
  • Conocimientos en SQL, noSQL, Python, git, Linux

Información adicional

¿Por qué Google Cloud Platform?

  • Somos Tech partners de google.
  • Integración directa con medios digitales de google.
  • Soporte directo del equipo de ingeniería de google.

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Tags: Airflow APIs Big Data BigQuery Dataflow Docker Engineering ETL Flask GCP Git Google Cloud Hadoop Linux NoSQL Pipelines PySpark Python SQL

Region: South America
Country: Argentina
Job stats:  19  4  0
Category: Engineering Jobs

More jobs like this

Explore more AI, ML, Data Science career opportunities

Find even more open roles in Artificial Intelligence (AI), Machine Learning (ML), Natural Language Processing (NLP), Computer Vision (CV), Data Engineering, Data Analytics, Big Data, and Data Science in general - ordered by popularity of job title or skills, toolset and products used - below.