Publicada nesta plataforma em:
Vaga vista 127 vezes.
Responsabilidades e atribuições
Desenvolver e manter pipelines de dados (ETL/ELT) com foco em performance e escalabilidade.
Atuar com extração, transformação e carga de dados em ambientes distribuídos.
Trabalhar com integração entre sistemas transacionais, data lakes e consumidores de dados (como FICO).
Colaborar com times de DataOps, MLOps, Cloud, Arquitetura e Produto.
Participar de projetos com foco em cultura data driven e recuperação eficiente de dados.
Garantir a qualidade e disponibilidade dos dados para uso analítico.
Atuação em ambiente Cloud AWS.
Requisitos e qualificações
• Conhecimento em linguagens como SQL, Python e Spark;
• Experiência com bancos de dados relacionais e NoSQL, ferramentas de integração de dados, e tecnologias de big data, como: MySQL, PostgreSQL e Redshift.
• Experiência com plataformas distribuídas como Hadoop, Spark ou Databricks.
• Domínio nos ambientes AWS utilizando tecnologias como Ecossistema Apache, Redshift, DMS.
• Noções práticas de DevOps aplicado a dados.
• Familiaridade com containers (Kubernetes, OpenShift ou AKS).
• Excelentes habilidades analíticas e capacidade de resolver problemas complexos.
• Boa comunicação e colaboração com times técnicos e de negócio.
O que oferecemos para você!
CLT;
⭐ Plano de saúde;
⭐ Plano odontológico;
⭐ Programa de incentivo à saúde física: Totalpass;
⭐ Vale Refeição;
⭐ Seguro de vida;
⭐ Vale Transporte;
Setor Seguros
Se você ou alguém da sua rede de contatos se identifica com algum desses perfis, não perca tempo! Inscreva-se ou compartilhe esta mensagem com quem pode se interessar. Estamos ansiosos para conhecer novos talentos e crescer juntos! 💼✨
Aqui você encontra o melhor da comunidade tech em um só lugar: conteúdo, memes, VAGAS, aprendizados e gente disposta a crescer junto com você.
Entrar