Tech Stack
Amazon RedshiftBigQueryETLJavaKafkaPythonScalaSparkSQL
About the role
- Diseñar, construir y operar plataformas de datos distribuidas utilizando Spark, Kafka o Flink.
- Desarrollar pipelines de datos escalables capaces de manejar volúmenes a nivel petabyte.
- Trabajar en modelado de datos, data warehousing y bases de datos columnares (Redshift, BigQuery).
- Escribir, depurar y optimizar código en Spark usando Scala o Java.
- Utilizar Python y SQL para el procesamiento y análisis de datos.
Requirements
- +6 años de experiencia en Data Engineering.
- Inglés avanzado.
- Spark (indispensable).
- Dominio de Scala o Java.
- SQL.
- Experiencia práctica con sistemas distribuidos de datos y ETL pipelines.
- Prestaciones de ley y superiores.
- Vales de despensa.
- Seguro de vida.
- Plan dental.
- Fondo de ahorro.
- Capacitaciones y más.
Applicant Tracking System Keywords
Tip: use these terms in your resume and cover letter to boost ATS matches.
Hard skills
SparkScalaJavaPythonSQLETL pipelinesdata warehousingcolumnar databasesdata modelingdata processing
Soft skills
advanced English