Dans le cadre de projets Big Data menés par Davidson pour ses clients dans des secteurs variés (Gaming, Luxe, Télécoms, Finance, etc.), tu interviendras en tant qu’architecte et développeur(se) pour travailler sur des plateformes existantes ou en cours de construction. Tes activités porteront sur des sujets variés tels que : Veille et préconisation de technologies et outils Conception et mise en œuvre de plateformes Installation et déploiement de clusters logiciels Conception et mise en œuvre de flux (mode batch ou temps réel) de données structurées/non structurées Optimisation technique en termes de performance Mise en œuvre du DevOps Support à l’exploitation (sauvegardes, récupération, upgrades SW) Capitalisation et animation de formation Compétences requises ou à acquérir Hadoop, Cloudera, HDFS, Pig, Hive, Flume, Spark, Elasticsearch, bases de données SQL et NoSQL (Cassandra …) Un ou plusieurs langages parmi : Scala, Python, Java, etc Docker et Kubernetes Il te manque quelques-unes de ces compétences ? Pas grave : tu pourras apprendre aux côtés de nos Tech Leaders. Aptitudes / Savoir-être Esprit d’équipe et de partage Curiosité Rigueur Anglais Compétences requises ou à acquérir Hadoop, Cloudera, HDFS, Pig, Hive, Flume, Spark, Elasticsearch, bases de données SQL et NoSQL (Cassandra …) Un ou plusieurs langages parmi : Scala, Python, Java, etc Docker et Kubernetes Il te manque quelques-unes de ces compétences ? Pas grave : tu pourras apprendre aux côtés de nos Tech Leaders.Aptitudes / Savoir-être Esprit d’équipe et de partage Curiosité Rigueur Anglais