Especialista Data Engineer
Remoto
Applications have closed
Zup
A Zup é referência em transformação digital, desenvolve produtos open source, a procura dos melhores desenvolvedores para integrar seus times.Por que ser zupper?
Vamos direto ao ponto: o que oferecemos é um ambiente de crescimento exponencial. Mais do que palavras bonitas, isso significa que oferecemos todas as oportunidades para que você possa protagonizar sua evolução e todo o suporte necessário.
Como protagonismo sem apoio não gera desenvolvimento acelerado, além de oportunidades, cada zupper tem um plano de desenvolvimento de carreira, acompanhamento próximo por uma pessoa do time de People e acesso a uma plataforma proprietária que tangibiliza o sentimento de progresso.
E por que fazemos tudo isso?
Porque acreditamos que somente um ambiente de crescimento exponencial vai nos fazer chegar aonde queremos: usar a tecnologia para transformar a vida de pessoas, potencializar talentos desperdiçados por falta de acesso e posicionar regiões desprivilegiadas como pólos de tecnologia de qualidade.
Ah, e não podemos esquecer: na Zup acreditamos na #Liberdade! Com isso, zuppers podem trabalhar de onde quiserem, seja home office, em nossos escritórios ou em um modelo híbrido
O que você fará por aqui
Como parte do time de produtos de dados, sua missão é usar seus conhecimentos, habilidades para explorar problemas, desenhar, desenvolver produtos impactantes, entregar observando governança, segurança e performance, em um ambiente colaborativo e de inovação.
Acreditamos que a engenharia de dados é uma disciplina essencial para este produto, sendo responsável pela arquitetura e tecnologias para movimentar e organizar grandes volumes de dados, observando governança, segurança e performance.
- Participar das conversas sobre o produto, entendendo e garantindo a entrega de valor
- Desenhar a arquitetura e avaliar as tecnologias disponíveis para resolver o problema certo
- Combinar a arquitetura e tecnologia para desenvolver e entregar componentes reutilizáveis como connectors, jobs e workflows
- Testar e automatizar tudo que for possível
- Validar e adaptar os componentes de acordo com os feedbacks dos usuários
- Colaborar com a qualidade e inovação tecnológica do produto e ambiente de trabalho
O que esperamos que você saiba
- Facilidade para aprender novas tecnologias e se adaptar às mudanças
- Facilidade de comunicação e colaboração com outras pessoas
- Conhecimento e habilidade em alguma linguagem de programação e consulta, preferencialmente Python e/ou Java e SQL
- Conhecimento e habilidade em alguma tecnologia de processamento distribuído, preferencialmente Spark
- Conhecimento e habilidade em alguma nuvem, incluindo serviços de computação, armazenamento, bancos de dados e Analytics, preferencialmente AWS
- Conhecimento e habilidade em bancos de dados SQL, NoSQL e serviços de streaming distribuídos, por exemplo: PostgreSQL, Cassandra e Kafka
- Conhecimento sobre arquiteturas de Big Data, por exemplo: Data Warehouse, Data Lake, Lambda, Kappa, Data Mesh
- Conhecimento sobre modelagem e cargas de trabalho de dados, incluindo modelagem normalizada, multi-dimensional, e cargas de trabalho OLTP e OLAP
O que seria muito legal se você soubesse
- Alguma experiência na criação de produtos e/ou plataformas
- Alguma experiência com projetos de integração de dados (pipelines, workflows) em ambientes de Big Data em produção, incluindo performance e resiliência
- Alguma experiência com provisionamento e configuração de bancos de dados e serviços de streaming distribuídos em ambientes de produção, incluindo performance e disponibilidade
- Alguma experiência com ambientes de desenvolvimento colaborativos e distribuídos, usando Git Workflows, CI/CD e automação de processos
O que te tornaria Especialista
- Conhecimento avançado em alguma tecnologia de processamento distribuído, preferencialmente Spark, e/ou bancos de dados SQL e/ou no SQL, preferencialmente PostgreSQL e/ou DynamoDB
- Bastante experiência com ambientes de Big Data em produção, incluindo o desenho da arquitetura, provisionamento de infraestrutura, desenvolvimento de integração de dados (pipelines, workflows), monitoramento de performance e custos
O que te oferecemos
Aqui não é só a sua carreira que importa, queremos que você tenha saúde e bem estar físico e mental para a melhor jornada de experiência profissional e pessoal da sua vida.
Carreira acelerada - Trabalhe de onde quiser
- Horários flexíveis
- Auxílio Educação para cursos
- Programas internos de educação e aceleração
- Plataforma de cursos gratuitos
- Webinars internos semanais
- Ferramenta própria e exclusiva de desenvolvimento de carreira
- Site interno de carreira
- Núcleo interno P&D
- Frameworks para liderança: treinamentos e ferramentas
- Feedbacks 1o1 semanais
- Guildas internas e outros grupos de estudo e interesse
Saúde e Bem-estar
- Gympass
- Plano saúde
- Plano odontológico
- PrimeCare: assistência médica disponível 24 por 7
- Terapia online gratuita
- Meditação guiada
- Yoga conteúdos e práticas
- Alongamento
- Ginástica laboral
- CAZ – Central de Atendimento aos zuppers
- Licença maternidade de 180 dias
- Licença paternidade de 20 dias
Conforto financeiro
- Vale Refeição e Alimentação
- Seguro de vida
- Vale transporte
- Subsídio para home office
- Auxílio creche
- Auxílio Plano telefônico
- Participação em Lucros e Resultado (PLR)
- Programa de indicação
Have fun and relax
- Happy hours e festas com shows e atrações
- Chopp liberado*
- Vídeo-game*
- Salas temáticas*
- Refeitórios*
- Cozinhas equipadas*
- Áreas de descompressão*
- Lanches, snacks, frutas, chás e café*
- Dress Code livre*
*(para quem for aos escritórios)
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: AWS Big Data Cassandra CI/CD DynamoDB Git Kafka Lambda NoSQL OLAP Pipelines PostgreSQL Python Spark SQL Streaming
Perks/benefits: Team events Yoga
More jobs like this
Explore more AI, ML, Data Science career opportunities
Find even more open roles in Artificial Intelligence (AI), Machine Learning (ML), Natural Language Processing (NLP), Computer Vision (CV), Data Engineering, Data Analytics, Big Data, and Data Science in general - ordered by popularity of job title or skills, toolset and products used - below.
- Open Lead Data Analyst jobs
- Open Data Science Manager jobs
- Open MLOps Engineer jobs
- Open Senior Business Intelligence Analyst jobs
- Open Data Manager jobs
- Open Data Engineer II jobs
- Open Power BI Developer jobs
- Open Sr Data Engineer jobs
- Open Principal Data Engineer jobs
- Open Data Analytics Engineer jobs
- Open Junior Data Scientist jobs
- Open Business Intelligence Developer jobs
- Open Data Scientist II jobs
- Open Senior Data Architect jobs
- Open Product Data Analyst jobs
- Open Business Data Analyst jobs
- Open Sr. Data Scientist jobs
- Open Big Data Engineer jobs
- Open Manager, Data Engineering jobs
- Open Data Analyst Intern jobs
- Open Junior Data Engineer jobs
- Open Data Quality Analyst jobs
- Open Data Product Manager jobs
- Open Azure Data Engineer jobs
- Open ETL Developer jobs
- Open Data quality-related jobs
- Open Business Intelligence-related jobs
- Open ML models-related jobs
- Open Data management-related jobs
- Open GCP-related jobs
- Open Java-related jobs
- Open Privacy-related jobs
- Open Finance-related jobs
- Open Data visualization-related jobs
- Open APIs-related jobs
- Open Deep Learning-related jobs
- Open PyTorch-related jobs
- Open Snowflake-related jobs
- Open Consulting-related jobs
- Open TensorFlow-related jobs
- Open PhD-related jobs
- Open CI/CD-related jobs
- Open NLP-related jobs
- Open Data governance-related jobs
- Open Kubernetes-related jobs
- Open Airflow-related jobs
- Open LLMs-related jobs
- Open Databricks-related jobs
- Open Data warehouse-related jobs
- Open Hadoop-related jobs