Tech Stack
AirflowAmazon RedshiftAWSAzureBigQueryCloudETLGoogle Cloud PlatformJavaKafkaMySQLPostgresPythonScalaSparkSQLTypeScript
About the role
- Participer à des projets d’envergure en construisant et optimisant des plateformes et pipelines de données modernes
- Concevoir, développer et industrialiser des pipelines de données fiables et performants
- Intégrer des données structurées et non structurées, en batch et en temps réel
- Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
- Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran)
- Travailler sur Databricks, Snowflake, BigQuery, Redshift
- Garantir la qualité, la sécurité et la gouvernance des données
- Contribuer à la veille technologique et proposer des solutions adaptées
Requirements
- Maîtrise de Python et SQL
- Connaissances en Scala ou Java (un plus)
- Expérience avec Spark, Kafka, Databricks, dbt, Airflow
- Expérience des Cloud (AWS, Azure ou GCP)
- Maîtrise des bases relationnelles (PostgreSQL, MySQL) et entrepôts cloud (Snowflake, BigQuery, Redshift)
- Expérience ETL/ELT (Talend, Fivetran ou équivalents)
- Bonus : expérience en Machine Learning, temps réel ou data mesh