Keppri

Ingeniero de Datos – Híbrido Quito

Keppri

full-time

Posted on:

Location Type: Hybrid

Location: QuitoEcuador

Visit company website

Explore more

AI Apply
Apply

About the role

  • Serás responsable de diseñar, construir y operar soluciones de datos para un cliente del sector bancario, habilitando analítica, reporting regulatorio/gerencial, modelos de riesgo y casos de negocio.
  • Trabajarás con equipos de producto, BI, analítica, ingeniería y seguridad para garantizar calidad, disponibilidad, trazabilidad y gobierno de los datos.
  • Diseñar y desarrollar pipelines ETL/ELT (batch y/o streaming) para ingestión, transformación y publicación de datos.
  • Implementar y mantener modelos de datos en data lake / data warehouse (modelos dimensionales, data marts, capas bronze/silver/gold).
  • Optimizar performance de consultas y procesos (particionado, clustering, manejo eficiente de archivos/tablas).
  • Asegurar calidad de datos (validaciones, reconciliaciones, reglas de negocio, monitoreo de pipelines).
  • Implementar linaje, catálogo y documentación de datasets, definiendo estándares de nombres y metadatos.
  • Gestionar accesos y seguridad de datos (principio de mínimo privilegio, cifrado, clasificación de datos sensibles).
  • Monitorear pipelines y plataformas, gestionar incidentes y establecer SLAs/controles operativos.
  • Automatizar despliegues con CI/CD e Infraestructura como Código cuando aplique.
  • Levantar requerimientos con áreas de negocio (canales, riesgo, finanzas, operaciones) y traducirlos a soluciones de datos.
  • Colaborar con analistas/DS/BI para habilitar datasets confiables y reutilizables.

Requirements

  • +3 a 5 años de experiencia en ingeniería de datos en entornos productivos.
  • Experiencia comprobada en sector bancario/financiero (datos transaccionales, auditoría, calidad, trazabilidad).
  • Dominio de SQL avanzado (optimización, ventanas, CTEs, modelado).
  • Experiencia con al menos una tecnología de procesamiento: Spark / PySpark (deseable fuerte) o Python para procesamiento (pandas) en pipelines orquestados.
  • Experiencia con herramientas de orquestación: Airflow, Prefect, Dagster u otras.
  • Manejo de data warehouse/lakehouse: Snowflake, BigQuery, Redshift, Databricks, Synapse (según stack).
  • Conocimiento de formatos y almacenamiento: Parquet/ORC, particionado, compresión (Deseable) Delta Lake / Iceberg / Hudi.
  • Experiencia con control de versiones Git y prácticas de entrega continua (CI/CD deseable).
  • Buenas prácticas de seguridad y gobierno de datos.
  • Deseables (no excluyentes) Streaming y mensajería: Kafka/Kinesis/PubSub.
  • Nube (ideal AWS ): S3, Glue, Athena, EMR, Redshift, Lake Formation (o equivalentes).
  • Data quality frameworks: Great Expectations, Deequ u otros.
  • Conocimiento de regulaciones/procesos bancarios: conciliaciones, riesgo, AML/KYC, reportes, auditoría.
  • Experiencia con herramientas de catálogo/linaje: DataHub, Collibra, Amundsen, OpenMetadata.
  • Modelado orientado a analítica: Kimball, Data Vault (deseable).
Benefits
  • Salario competitivo acorde a tu experiencia.
  • Desarrollo profesional : apoyo para formación continua y certificaciones.
  • Bonificaciones por desempeño.
  • Un ambiente centrado en tu crecimiento humano y profesional.
  • Proyectos retadores con impacto real en banca y transformación digital.
Applicant Tracking System Keywords

Tip: use these terms in your resume and cover letter to boost ATS matches.

Hard Skills & Tools
ingeniería de datosSQL avanzadoETLELTmodelado de datosoptimización de consultasdata quality frameworksmodelado orientado a analíticaprocesamiento de datosautomatización CI/CD
Soft Skills
colaboracióngestión de incidentescomunicacióntraducción de requerimientosmonitoreo de pipelines