Job Description
Missions :
Concevoir et développer des pipelines ETL pour l’alimentation des entrepôts de données.
Intégrer et transformer des données issues de sources variées (bases SQL/NoSQL, fichiers plats, API…).
Assurer la qualité, la cohérence et la traçabilité des données manipulées.
Collaborer avec les Data Analysts, Data Scientists et les métiers pour comprendre les besoins et livrer des données prêtes à l’usage.
Optimiser les performances des traitements et automatiser les workflows de données.
Participer à la migration et à la modernisation des solutions vers des architectures cloud (ex. : Azure Data Factory, AWS Glue, GCP Dataflow).
Mettre en place des solutions de monitoring et de gestion des incidents liés aux traitements.
Profil recherché :
Bac+3 à Bac+5 en informatique, systèmes d’information ou équivalent. <...
Apply for this Position
Ready to join RED TIC? Click the button below to submit your application.
Submit Application