Tech Stack
AirflowAmazon RedshiftAWSAzureBigQueryCloudETLGoogle Cloud PlatformJavaKafkaMySQLPostgresPythonScalaSparkSQL
About the role
- Concevoir, développer et industrialiser des pipelines de données fiables et performants
- Intégrer des données structurées et non structurées, en batch comme en temps réel
- Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
- Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran, etc.)
- Travailler sur des environnements modernes type Databricks, Snowflake, BigQuery, Redshift
- Garantir la qualité, la sécurité et la gouvernance des données
- Contribuer à la veille technologique et proposer les meilleures solutions pour chaque projet
Requirements
- Passionné(e) par la Data et à l’aise dans des environnements techniques exigeants
- Maîtrise de Python et SQL
- Scala ou Java sont un plus
- Expérience avec Spark et Kafka
- Expérience Databricks, dbt, Airflow
- Connaissance Cloud (AWS, Azure ou GCP)
- Bases de données relationnelles (PostgreSQL, MySQL)
- Cloud data warehouses (Snowflake, BigQuery, Redshift)
- ETL/ELT : Talend, Fivetran ou équivalents
- Bonus : expérience en Machine Learning, temps réel ou data mesh
- Une équipe d’experts passionnés
- Des projets de grande envergure
- Environnement de travail valorisant l’innovation, la diversité et la mobilité internationale
- Opportunités d’évolution
- Culture d’entreprise inclusive
- Tous nos postes sont ouverts aux personnes en situation de handicap
- Reconnaissance RSE et labels (Entreprise responsable, Top 10 Meilleurs Employeurs IT)
- Télétravail en mode Hybride (Bordeaux)
Applicant Tracking System Keywords
Tip: use these terms in your resume and cover letter to boost ATS matches.
Hard skills
PythonSQLScalaJavaSparkKafkaETLELTMachine LearningData mesh
Soft skills
passionné par la Dataà l’aise dans des environnements techniques exigeants