Job Description

Key Responsibilities Diseñar, desarrollar y mantener pipelines de datos escalables en Databricks . Implementar procesos ETL/ELT usando PySpark y SQL. Integrar datos desde múltiples fuentes para generar datasets confiables. Colaborar con equipos de BI, Data Science y negocio para definir requerimientos y métricas clave. Optimizar rendimiento y costos en entornos cloud (Azure/AWS/GCP). Implementar prácticas de seguridad y gobierno de datos. Required Skills & Qualifications Experiencia comprobable en Databricks . Conocimiento avanzado de PySpark y SQL. Experiencia en desarrollo de ETL/ELT y modelado de datos. Conocimiento de entornos cloud (Azure Data Lake, AWS S3, GCP BigQuery). Manejo de herramientas CI/CD y versionamiento (Git, DevOps). Habilidad para documentar y comunicar soluciones técnicas.

Apply for this Position

Ready to join ? Click the button below to submit your application.

Submit Application