Tech Stack
AWSAzureCloudDockerElasticSearchETLGoogle Cloud PlatformHadoopJavaKubernetesNoSQLOpen SourcePythonScalaSparkSQLTableau
About the role
- Conception et développement de pipelines de données (ETL/ELT)
- Maintenance et optimisation de l'infrastructure de données
- Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes)
- Collaboration avec les équipes de data science et d'analyse
- Automatisation des processus de gestion des données
- Veille technologique sur les outils et technologies de données
- Travailler dans un environnement Open Source incluant ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker), visualisation (Power BI, Tableau), langages (Python, Java, Scala, R), moteurs de recherche (Elasticsearch, Solr)
Requirements
- 3 ans ou plus d'expérience en développement
- Maîtrise de la Data
- Souci du détail garantissant la qualité et la fiabilité des données
- Capacité à résoudre des problèmes complexes d'infrastructure de données
- Travail de manière indépendante et prise d'initiatives
- Veille technologique et exploration active des nouvelles technologies et solutions de données
- Adaptabilité aux changements technologiques rapides
- Communication efficace avec les équipes de données et les équipes métier
- La maîtrise de l'anglais est un plus