Categoria: Tecnologia

Localização:


  • Desenvolver e manter processos de integração de dados (ETL/ELT);
  • Realizar ingestão, transformação e disponibilização de dados de diferentes fontes;
  • Integrar sistemas por meio de APIs e serviços;
  • Monitorar e garantir a qualidade, integridade e disponibilidade dos dados;
  • Atuar na identificação e resolução de problemas relacionados a fluxos de dados;
  • Trabalhar em conjunto com equipes de dados, desenvolvimento e negócio;
  • Documentar processos, fluxos e integrações realizadas;
  • Apoiar na definição de boas práticas e governança de dados.

  • O profissional deve ser capaz de implementar testes automatizados (unitários, integração, cobertura), análise estática de código, segurança (SAST) e boas práticas de qualidade, transformando o projeto em uma solução robusta, segura e pronta para produção.


  • Requisitos

  • Experiência com integração de dados entre sistemas (ETL/ELT);
  • Conhecimento em bancos de dados relacionais e não relacionais (SQL e NoSQL);
  • Domínio de linguagens como Python, SQL ou similares para manipulação de dados;
  • Experiência com APIs (REST/JSON) e integração de serviços;
  • Vivência com ferramentas de integração;
  • Conhecimento em modelagem de dados e qualidade de dados;
  • DevOps e CI/CD: Configuração de pipelines automatizados, testes contínuos, deploy seguro, Infrastructure as Code (Terraform/CloudFormation) e versionamento Git avançado;
  • Engenharia de Dados e Fluxos de Dados: Design e otimização de pipelines de dados, integração com LLMs e garantia de qualidade de dados;
  • Experiência com ambientes em nuvem AWS (Profundo conhecimento de serviços relevantes (Lambda, EC2, RDS, S3), segurança (IAM), monitoramento (CloudWatch) e otimização de custos);
  • Familiaridade com versionamento de código (Git);
  • Capacidade de análise, resolução de problemas e trabalho em equipe.




  • Detalhes