Tech Stack
AzureETLNode.jsPySparkPythonSQLVault
About the role
- Liderar el diseño, construcción y optimización de soluciones de datos escalables en Databricks.
- Desarrollar procesos de ingesta y transformación de datos utilizando Python (incluido PySpark) y SQL avanzado.
- Modelar datos en arquitecturas modernas, incluyendo Data Lakehouse con Delta Lake y estructuras analíticas en estrella y copo de nieve.
- Implementar automatización, monitoreo y despliegues confiables con CI/CD y prácticas de DevOps.
- Colaborar con equipos de negocio, ciencia de datos y producto para traducir necesidades estratégicas en soluciones de datos accionables.
- Documentar arquitecturas, flujos y decisiones técnicas.
Requirements
- Más de 5 años de experiencia en ingeniería de datos.
- Al menos 2 años de experiencia trabajando en Databricks (obligatorio).
- Dominio avanzado de Python (incluido PySpark) y SQL.
- Experiencia en arquitecturas modernas de datos (Data Lakes, Lakehouse, Delta Lake).
- Conocimiento en procesos ETL/ELT, optimización de consultas y modelado de datos.
- Nivel de inglés C1.
- El CV debe estar redactado en inglés.