Partager cette offre
Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform.
Missions
Concevoir, développer et maintenir les pipelines de données
Développer des modèles de données optimisés pour l’analyse et le reporting
Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier
Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance
Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances
Participer aux phases de cadrage, planification et veille technologique
Profil recherché
Compétences requises
Maîtrise de SQL et Python
Expérience en DBT (gestion des tables incrémentales, optimisation des coûts)
Bonne connaissance de GCP et BigQuery
Expérience en Airflow, Terraform, Terragrunt, GitLab CI/CD
Expérience dans la mise en place de pipelines ETL/ELT et Docker
Bonne compréhension des architectures data et capacité à vulgariser des concepts techniques
Expérience avec les méthodes Agile (Scrum, Kanban)
Profil recherché
Expérience : Minimum 3 ans en tant que Data Engineer dans un environnement data exigeant
Compétences techniques solides :
Maîtrise du SQL et Python
Expérience confirmée en DBT (gestion de tables incrémentales, optimisation des performances et des coûts)
Expérience avec Airflow pour l’orchestration des pipelines
Bonne connaissance de Google Cloud Platform (GCP) et des services associés (BigQuery, etc.)
Expérience en Terraform / Terragrunt pour l’industrialisation de l’infrastructure
Familiarité avec GitLab CI/CD et Docker
Capacité à concevoir et optimiser des modèles de données adaptés aux besoins métier
Esprit analytique et rigoureux, capable d’identifier et de résoudre les anomalies de données
Capacité à travailler en équipe et à collaborer avec différentes parties prenantes (Product Owner, Data Scientists, Data Analysts)
Aptitude à vulgariser des concepts techniques et à accompagner les utilisateurs dans leurs usages des données
Expérience en méthodologies Agile (Scrum, Kanban)
Un profil autonome, proactif et pragmatique avec une approche orientée résultats et performance sera privilégié.
Environnement de travail
Télétravail hybride
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.