Localização: Brasil
.
- Desenvolver e manter pipelines de dados escaláveis e robustos no ambiente AWS, utilizando ferramentas como Amazon S3, Apache Airflow, Apache Kafka, DBT, Kubernetes e Snowflake;
- Realizar a migração segura e eficiente de grandes volumes de dados e workloads de GCP e OnPremise para AWS;
- Criar scripts e processos automatizados para orquestração, transformação e validação dos dados migrados;
- Monitorar continuamente a performance dos pipelines de dados;
- Garantir a adoção das melhores práticas de DevSecOps na infraestrutura e no fluxo de dados, promovendo a segurança em todas as etapas.
- Experiência com ferramentas e tecnologias em ambiente AWS, incluindo Amazon S3, Apache Airflow, Apache Kafka, DBT, Kubernetes e Snowflake;
- Sólidos conhecimentos de migração de dados e workloads entre diferentes plataformas;
- Experiência com orquestração de dados e automação utilizando Apache Airflow e DBT;
- Conhecimentos em monitoramento e otimização de performance de pipelines de dados;
- Conhecimento das práticas de DevSecOps e segurança em ambientes de dados.
Não possui todos os requisitos para a vaga?Está tudo bem! Na Compass UOL, estimulamos o desenvolvimento contínuo de novos talentos e transformamos desafios em oportunidades.#remote“remote”
Empresa: Compass UOL