Data Engineer Sênior

Remoto

Zup

A Zup é referência em transformação digital, desenvolve produtos open source, a procura dos melhores desenvolvedores para integrar seus times.

View company page

Já imaginou trabalhar em uma ferramenta inovadora e que será utilizada por milhares de pessoas?

Nosso foco é criar a melhor experiência e dar os melhores serviços financeiros para o cliente do nosso cliente, tornando essa a principal solução financeira desses clientes.

 

Sua missão na equipe:

Como parte do time de produtos de dados, sua missão é usar seus conhecimentos, habilidades para explorar problemas, desenhar, desenvolver produtos impactantes, entregar observando governança, segurança e performance, em um ambiente colaborativo e de inovação.

Acreditamos que a engenharia de dados é uma disciplina essencial para este produto, sendo responsável pela arquitetura e tecnologias para movimentar e organizar grandes volumes de dados, observando governança, segurança e performance.

 

Quais serão suas responsabilidades:

  • Participar das conversas sobre o produto, entendendo e garantindo a entrega de valor
  • Desenhar a arquitetura e avaliar as tecnologias disponíveis para resolver o problema certo
  • Combinar a arquitetura e tecnologia para desenvolver e entregar componentes reutilizáveis como connectors, jobs e workflows
  • Testar e automatizar tudo que for possível
  • Validar e adaptar os componentes de acordo com os feedbacks dos usuários
  • Colaborar com a qualidade e inovação tecnológica do produto e ambiente de trabalho

 

O que você precisa ter:

  • Facilidade para aprender novas tecnologias e se adaptar às mudanças
  • Facilidade de comunicação e colaboração com outras pessoas
  • Conhecimento e habilidade em alguma linguagem de programação e consulta, preferencialmente Python e/ou Java e SQL
  • Conhecimento e habilidade em alguma tecnologia de processamento distribuído, preferencialmente Spark
  • Conhecimento e habilidade em alguma nuvem, incluindo serviços de computação, armazenamento, bancos de dados e Analytics, preferencialmente AWS
  • Conhecimento e habilidade em bancos de dados SQL, NoSQL e serviços de streaming distribuídos, por exemplo: PostgreSQL, Cassandra e Kafka
  • Conhecimento sobre arquiteturas de Big Data, por exemplo: Data Warehouse, Data Lake, Lambda, Kappa, Data Mesh
  • Conhecimento sobre modelagem e cargas de trabalho de dados, incluindo modelagem normalizada, multi-dimensional, e cargas de trabalho OLTP e OLAP


O que te tornaria um especialista:

  • Conhecimento avançado em alguma tecnologia de processamento distribuído, preferencialmente Spark, e/ou bancos de dados SQL e/ou no SQL, preferencialmente PostgreSQL e/ou DynamoDB

Bastante experiência com ambientes de Big Data em produção, incluindo o desenho da arquitetura, provisionamento de infraestrutura, desenvolvimento de integração de dados (pipelines, workflows), monitoramento de performance e custos

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Tags: AWS Big Data Cassandra DynamoDB Kafka Lambda NoSQL OLAP Pipelines PostgreSQL Python Spark SQL Streaming

Region: Remote/Anywhere
Job stats:  1  1  0
Category: Engineering Jobs

More jobs like this

Explore more AI, ML, Data Science career opportunities

Find even more open roles in Artificial Intelligence (AI), Machine Learning (ML), Natural Language Processing (NLP), Computer Vision (CV), Data Engineering, Data Analytics, Big Data, and Data Science in general - ordered by popularity of job title or skills, toolset and products used - below.