Job Description
<p><strong>Credicorp Capital </strong><span style="color: rgb(55, 65, 81);">te invita a convertir desafíos en oportunidades y ser nuestro próximo/a </span><strong><span style="color: rgb(55, 65, 81);">Data Engineer </span></strong><span style="color: rgb(55, 65, 81);">quien tendrá la misión </span>de asegura la disponibilidad, calidad y escalabilidad de los datos para soluciones de IA Generativa, mediante la construcción de pipelines ligeros y confiables. Su propósito es preparar, transformar y exponer datos que habiliten la operación óptima de agentes, copilotos y automatizaciones, en coordinación con equipos de IA y negocio.</p><p><br></p><p><strong>Principales Responsabilidades:</strong></p><p><br></p><ul><li><p>Diseñar, construir y mantener pipelines de ingestión, transformación y orquestación.</p></li><li><p style="text-align: justify;">Modelar datos orientados a IA y preparar datasets para RAG/embeddings.</p></li><li><p style="text-align: justify;">Aplicar controles de calidad y trazabilidad.</p></li><li><p style="text-align: justify;">Mantener CI/CD de pipelines de datos y documentación versionada.</p></li><li><p style="text-align: justify;">Orquestar workflows y exponer feeds/endpoints para consumo de agentes/copilotos y productos analíticos.</p><p><br></p></li></ul><p><strong>Conocimientos, experiencia y habilidades requeridos:</strong></p><p><br></p><p><strong>Estudios: </strong>Ingeniería de Sistemas, Computación, Ciencia de Datos o afines.</p><p><br></p><p><strong>Experiencia: </strong></p><ul><li><p>3–5 años en ingeniería de datos o integración de datos cloud.</p></li><li><p>Experiencia construyendo pipelines y modelos de datos para analítica o IA (incluye preparación de datasets para RAG/LLMs).</p></li><li><p>Participación en migraciones on‑prem →cloud y orquestación de workflows de datos.</p></li></ul><p><strong>Idiomas: </strong>inglés técnico (Intermedio deseable). </p><p><br></p><p><strong>Software / Tecnologías</strong></p><ul><li><p>Azure Data Factory, Databricks, PySpark/Spark SQL, Delta Lake, Azure Synapse/Storage.</p></li><li><p>SQL avanzado (SQL Server, PostgreSQL) y Python (intermedio–avanzado).</p></li><li><p>Control de versiones y CI/CD: Git, GitHub/Bitbucket, GitHub Actions / Azure DevOps / Jenkins</p></li><li><p>Integración: APIs REST/JSON; consumo desde fuentes internas y externas.</p></li><li><p>(Deseable) Airflow para orquestación adicional; Power BI para visualizaciones de soporte.<br></p></li></ul><p><strong>Conocimientos técnicos esenciales</strong></p><ul><li><p>Diseño de modelos de datos orientados a IA (tabulares, semiestructurados) e implementación técnica con formatos optimizados (Parquet/Delta), particionamiento, esquemas y metadatos. (indispensable)</p></li><li><p>Conceptos de linaje, calidad y gobierno de datos (solo para alineamiento).</p></li><li><p>Batch y streaming sobre Delta Lake; patrones de auditoría/versionado.</p></li><li><p>Seguridad y privacidad (PII: anonimización/pseudonimización básica; controles de acceso).</p></li><li><p>Integración de datos desde APIs, bases de datos y fuentes externas.</p></li><li><p>Optimización de performance y costos en plataformas cloud.<br></p><p><strong>Conocimientos deseables</strong></p></li><li><p>Exposición general a AWS o GCP (lectura de servicios equivalentes, despliegues simples o conocimientos básicos).</p></li><li><p>Nociones de LLMOps para preparar datos y habilitar inferencia.</p></li><li><p>Familiaridad con orquestación ligera (GitHub Actions, Data Factory, Airflow).</p></li><li><p>Deseable: Certificación AZ‑900; DP‑203, Databricks Data Engineer Associate, DP‑900, PL‑300</p></li></ul><p><strong>Habilidades</strong></p><ul><li><p>Storytelling y comunicación clara con audiencias técnicas y de negocio.</p></li><li><p>Colaboración con AI Engineers, MLOps/Cloud Engineers, AI Automation Specialists y equipos de Data.</p><p><br></p></li></ul><p><strong><em>Esta convocatoria se encuentra disponible también para personas con discapacidad.</em></strong></p><p><br></p><p><br></p><p><br></p><p><br></p>
Apply for this Position
Ready to join ? Click the button below to submit your application.
Submit Application