Job Description

• znajomość aspektów związanych z budową pipeline-ów zasilających ETL/ELT
• doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH
• znajomość technologii wykorzystywanych w ramach architektury sterowanej zdarzeniami takich jak np. Kafka, Pub/Sub
• znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI
• znajomość Google BigQuery
• znajomość Kubernetes (najlepiej Google Kubernetes Engine i OpenShift)
• znajomość relacyjnych baz danych Oracle i PostgreSQL (projektowanie, budowa i tuning baz danych),
• biegle znasz języki programowania Python i/lub Rust
• dobrze znasz Apache AirFlow


Apply for this Position

Ready to join b2bnetwork? Click the button below to submit your application.

Submit Application