Tech Stack
ElasticSearchHadoopHDFSJavaLinuxPythonScalaSparkUnix
About the role
- Conception et mise en œuvre de plateformes Big Data
- Déploiement de clusters logiciels et gestion des environnements complexes
- Intégration de données (structurées/non structurées, batch ou temps réel) à grande échelle
- Optimisation technique et fonctionnelle pour garantir des performances
- Mise en œuvre des stratégies d’exploitation (sauvegarde, mises à jour, etc.)
- Transfert de compétences et animation de formations pour les équipes internes
- Veille technologique et préconisation des outils les plus adaptés
Requirements
- Technologies Big Data : Hadoop (HDFS, Pig, Hive, Sqoop, Flume…)
- Spark
- Elasticsearch
- Langages de programmation : Java, C++, Python, Shell
- Environnements Linux/UNIX
- Le petit + : une expérience avec Scala ou sur des projets de Machine Learning serait un vrai atout !