Job Description

Modelo de Atuação:

  • Atuação em projetos estratégicos de dados e analytics;
  • Integração com times multidisciplinares;
  • Trabalho remoto, com visitas esporádicas aos clientes em São Paulo, de acordo com o cliente/projeto

Principais Atividades

  • Desenvolver e manter pipelines de ingestão, transformação e carga de dados (ETL/ELT) a partir de múltiplas fontes (APIs, bancos relacionais, arquivos, sistemas legados e cloud);
  • Atuar na modelagem de dados (Data Lake, Data Warehouse e Data Marts), garantindo performance, escalabilidade e governança;
  • Processar grandes volumes de dados utilizando Spark (PySpark ou Scala) e frameworks de Big Data;
  • Desenvolver scripts e automações em Python para extração, integração e tratamento de dados;
  • Criar e otimizar consultas SQL avançadas (procedures, views, functions, jobs), com foco em performance;
  • Atuar em ambientes cloud (GCP, Oracle Cloud, Azure ou similares),...

Apply for this Position

Ready to join professional service? Click the button below to submit your application.

Submit Application