Publicada nesta plataforma em:
Vaga vista 125 vezes.
Sobre a oportunidade
Vai ingressar na Marlabs e compor o time de especialistas que estão envolvidos na transformação digital de uma empresa que é líder em serviços de informação na América Latina.
Descrição da Vaga
A Marlabs é uma empresa de tecnologia com mais de 28 anos e que conta com mais de 3.000 especialistas ao redor do mundo. Aqui aprendemos algo novo todos os dias e vivemos desafios que nos mantêm em constante desenvolvimento. Somos um time global, reconhecido internacionalmente e com o propósito de encontrar, atrair e contratar os melhores talentos da área de Tecnologia. Todas as nossas vagas são acessíveis a profissionais PcDs, pessoas pertencentes a comunidade LGBTQIA+, pessoas negras, mulheres e demais grupos de diversidade.
Responsabilidades
• Projetar, desenvolver e manter pipelines de dados ETL/ELT escaláveis usando Databricks com PySpark, SQL e Delta Lake.
• Otimizar o desempenho dos pipelines de dados, gerenciar fluxos de trabalho e monitorar execuções utilizando workflows e notebooks.
• Integrar, transformar e processar dados estruturados e não estruturados de várias fontes, como armazenamento em nuvem, APIs, JSON e arquivos diversos.
• Implementar verificações de qualidade dos dados e validações, assegurando governança, rastreabilidade e conformidade de segurança (ex.: Unity Catalog).
• Colaborar com arquitetos de dados, analistas e áreas de negócio para traduzir requisitos em modelos e soluções de dados.
• Participar ativamente em ritos de governança de dados e contribuir para a melhoria contínua dos processos de dados através de automação e documentação.
• Ter visão de produtos de dados e criar padrões reutilizáveis.
• Propor e implementar soluções inovadoras para desafios técnicos em um ambiente ágil e colaborativo.
Requisitos
• Conhecimento em Databricks e Unity Catalog, com sólida compreensão da arquitetura Lakehouse, Delta Lake e MLFlow.
• Proficiência em PySpark, SQL e processamento distribuído de dados.
• Experiência com plataformas em nuvem, especialmente Azure, e serviços como Azure Data Factory e AirFlow.
• Familiaridade com ambientes DataOps, incluindo práticas de CI/CD e controle de versão (Git, Azure DevOps).
• Experiência em performance tuning, segurança e integração de dados em ambientes cloud.
• Habilidades avançadas para resolução de problemas e depuração em ambientes distribuídos.
• Inglês avançado.
Aqui você encontra o melhor da comunidade tech em um só lugar: conteúdo, memes, VAGAS, aprendizados e gente disposta a crescer junto com você.
Entrar