Job Description

Missions :

  • Concevoir et développer des pipelines ETL pour l’alimentation des entrepôts de données.

  • Intégrer et transformer des données issues de sources variées (bases SQL/NoSQL, fichiers plats, API…).

  • Assurer la qualité, la cohérence et la traçabilité des données manipulées.

  • Collaborer avec les Data Analysts, Data Scientists et les métiers pour comprendre les besoins et livrer des données prêtes à l’usage.

  • Optimiser les performances des traitements et automatiser les workflows de données.

  • Participer à la migration et à la modernisation des solutions vers des architectures cloud (ex. : Azure Data Factory, AWS Glue, GCP Dataflow).

  • Mettre en place des solutions de monitoring et de gestion des incidents liés aux traitements.

  • Profil recherché :

  • Bac+3 à Bac+5 en informatique, systèmes d’information ou équivalent. <...

  • Apply for this Position

    Ready to join RED TIC? Click the button below to submit your application.

    Submit Application