Tech Stack
AirflowAmazon RedshiftAWSAzureBigQueryCloudETLGoogle Cloud PlatformJavaKafkaMySQLPostgresPythonScalaSparkSQL
About the role
- Participer à des projets d’envergure en construisant et optimisant plateformes et pipelines de données modernes
- Concevoir, développer et industrialiser des pipelines de données fiables et performants
- Intégrer des données structurées et non structurées, en batch et en temps réel
- Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
- Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran)
- Travailler sur des environnements type Databricks, Snowflake, BigQuery, Redshift
- Garantir la qualité, sécurité et gouvernance des données
- Contribuer à la veille technologique et proposer les meilleures solutions pour chaque projet
Requirements
- Maîtrise de Python et SQL (Scala ou Java en plus)
- Expérience avec Spark, Kafka, Databricks, dbt, Airflow
- Connaissance des clouds AWS, Azure ou GCP
- Bases de données relationnelles : PostgreSQL, MySQL
- Data warehouses cloud : Snowflake, BigQuery, Redshift
- Outils ETL/ELT : Talend, Fivetran ou équivalents
- Bonus : expérience en Machine Learning, temps réel ou data mesh
- À l’aise dans des environnements techniques exigeants