Postée il y a 2 jours
Bonjour,
Nous recherchons pour notre client grand compte un Ingénieur Data GCP répondant au besoin ci-dessous.
Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes :
- Argumentaire écrit répondant de façon ciblée au besoin
- CV à jour (format Word)
- Date de prochaine disponibilité
- Tarif journalier
- Merci d?indiquer la référence MDE/DATA/4697 en objet du message
Objectif :
- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run :
- Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes
- Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données
- Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données
- Traiter et corriger les anomalies
- Concevoir les modèles de données adaptés aux besoins des utilisateurs
- Accompagner les utilisateurs de Data4All dans leurs usages
- Auditer et cartographier les données existantes de Data4All et proposer une vision cible
performante, gouvernée et adaptée aux besoins et contraintes
- Mettre en place le contrôle qualité sur les données
Profil candidat:
Missions :
- La mise en place de pipelines de traitement de données
- Développement des modèles de données
- L?extraction et l?exposition des données issues de la zone silver de la plateforme data vers Data4All
- L?industrialisation des différents environnements de Data4All, en collaboration avec l?équipe d?ops
- Différentes phases de cadrage, de planification et de réalisation des tâches avec l?équipe
- La veille technique pour l?amélioration de la stack
- L?amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Tâches :
- Au moins 3 ans d?expérience en tant que Data ingénieur dans un environnement data
- Compétences solides en data : structures de données, code, architecture
- Expériences dans un environnement du Cloud Provider Public Google (GCP)
- Expériences sur des projets Big Data intégrant BigQuery, Airflow et dbt
- Expériences dans la mise en place de pipeline ETL / ELT
- Expériences sur des projets intégrant Gitlab (Gitlab CI/CD)
- Expériences sur des projets intégrant Docker
- Expériences sur des projets intégrant Terraform et Terragrunt
- Maitrise des langages SQL et Python indispensable
- Bonne connaissance de la solution dbt et notamment la gestion des tables incrémentales complexes
- Capacité à vulgariser et à communiquer sur des aspects purement techniques
- Pratique des méthodes Agile (Scrum, Kanban)