
Ingeniero de Datos
Keppri
full-time
Posted on:
Location Type: Remote
Location: Colombia
Visit company websiteExplore more
About the role
- Diseñar y desarrollar pipelines ETL/ELT (batch y/o streaming) para ingestión, transformación y publicación de datos
- Implementar y mantener modelos de datos en data lake / data warehouse (modelos dimensionales, data marts, capas bronze/silver/gold)
- Optimizar performance de consultas y procesos (particionado, clustering, manejo eficiente de archivos/tablas)
- Asegurar calidad de datos (validaciones, reconciliaciones, reglas de negocio, monitoreo de pipelines)
- Implementar linaje, catálogo y documentación de datasets, definiendo estándares de nombres y metadatos
- Gestionar accesos y seguridad de datos (principio de mínimo privilegio, cifrado, clasificación de datos sensibles)
- Monitorear pipelines y plataformas, gestionar incidentes y establecer SLAs/controles operativos
- Automatizar despliegues con CI/CD e Infraestructura como Código cuando aplique
- Levantar requerimientos con áreas de negocio (canales, riesgo, finanzas, operaciones) y traducirlos a soluciones de datos
- Colaborar con analistas/DS/BI para habilitar datasets confiables y reutilizables
Requirements
- +3 a 5 años de experiencia en ingeniería de datos en entornos productivos
- Experiencia comprobada en sector bancario/financiero (datos transaccionales, auditoría, calidad, trazabilidad)
- Dominio de SQL avanzado (optimización, ventanas, CTEs, modelado)
- Experiencia con al menos una tecnología de procesamiento: Spark / PySpark (deseable fuerte) o Python para procesamiento (pandas) en pipelines orquestados
- Experiencia con herramientas de orquestación: Airflow, Prefect, Dagster u otras
- Manejo de data warehouse/lakehouse: Snowflake, BigQuery, Redshift, Databricks, Synapse (según stack)
- Conocimiento de formatos y almacenamiento: Parquet/ORC, particionado, compresión (Deseable) Delta Lake / Iceberg / Hudi
- Experiencia con control de versiones Git y prácticas de entrega continua (CI/CD deseable)
- Buenas prácticas de seguridad y gobierno de datos
- Deseables (no excluyentes) Streaming y mensajería: Kafka/Kinesis/PubSub
- Nube (ideal AWS): S3, Glue, Athena, EMR, Redshift, Lake Formation (o equivalentes)
- Data quality frameworks: Great Expectations, Deequ u otros
- Conocimiento de regulaciones/procesos bancarios: conciliaciones, riesgo, AML/KYC, reportes, auditoría
- Experiencia con herramientas de catálogo/linaje: DataHub, Collibra, Amundsen, OpenMetadata
- Modelado orientado a analítica: Kimball, Data Vault (deseable)
Benefits
- Salario competitivo acorde a tu experiencia
- Desarrollo profesional : apoyo para formación continua y certificaciones
- Bonificaciones por desempeño
- Un ambiente centrado en tu crecimiento humano y profesional
- Proyectos retadores con impacto real en banca y transformación digital
Applicant Tracking System Keywords
Tip: use these terms in your resume and cover letter to boost ATS matches.
Hard Skills & Tools
ETLELTSQLSparkPySparkPythonAirflowSnowflakeBigQueryData modeling
Soft Skills
collaborationcommunicationproblem-solvingincident managementrequirements gathering