Les missions du poste

Les batteries jouent un rôle essentiel dans l’alimentation de nos appareils électroniques, nos véhicules ou encore nos systèmes de stockage d’énergie. La viabilité de ce modèle “tout électrique” réside toutefois dans un usage durable de ces batteries.

Partant de ce constat, nous avons décidé de participer à la transformation du secteur de l’énergie en optimisant l’utilisation des batteries au maximum, afin d’en minimiser les effets négatifs et les dérives possibles. Pour nous, l’énergie sera véritablement propre lorsqu’elle sera raisonnée.

C’est pour cela que nous développons, chez PowerUp, des solutions de traitement de données batteries - issue de plus de 15 ans de recherche - qui fiabilisent la gestion, préviennent les risques d’utilisation (départ de feu) et permettent d’optimiser la durée de vie des batteries Lithium-ion quels que soient leurs usages et l’environnement dans lesquels elles évoluent.

Chez PowerUp, nous sommes spécialisés dans les batteries, engagés dans une transition énergétique réfléchie, portée par la science, la technologie et l'innovation.

From Battery Data to Battery Insight

Définition du poste :

Lieux : Paris 2 à 3 jours / semaine, télétravail le reste du temps

Durée : Temps plein, 6 mois

Contrat : Stage

Mission :

Vous participez aux phases de conception, développement et maintenance de nos systèmes à différents niveaux, en support des data engineers et en relation avec de nombreux métiers de PowerUp :


  • Développement en Python avec versionning Git
  • Déploiement de nouvelles versions et de nouveaux algorithmes/modèles pour nos librairies
  • Gestion des exécutions orchestrées sur Airflow
  • Explorations et visualisations de données sur des notebooks Databricks
  • Collaborations au quotidien avec les équipes commerciales et R&D

Compétences nécessaires

Prérequis

  • Développement Python : maitrises des bases (structures de données, gestion de fichiers, etc.), tests unitaires, test d’intégrations
  • Développement Git : maîtrise des bases (clone, commit, push, pull, branch), compréhension du workflow collaboratif (branches, pull requests, résolution de conflits)
  • Des premières connaissances des fonctionnements de docker : image, conteneurs et Dockerfile
  • Une première expérience en programmation ou en manipulation de données (analyst, engineer, scientist ou autre)
  • Connaissances des principes de calculs distribués (nous utilisons Spark / PySpark mais la connaissance de ces outils n’est pas obligatoire)
  • Petit plus : avoir une première expérience avec un fournisseur de Cloud (Azure, AWS, GCP…)

Vous appréciez de travailler avec différents métiers et différentes équipes et montrez des compétences de communication avec des personnalités très différentes.

Le processus de sélection pour ce stage

  • Premier entretien de contact RH
  • Entretien avec les data engineers
  • Test technique avec debrief


Lieu : Paris
Contrat : Stage
Télétravail : Télétravail partiel
Accueil / Emploi / Emploi Paris / Emploi