Le poste Data Engineer GCP / Python / Spark / DBT / Airflow
Partager cette offre
La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision.
Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform.
Missions de cette équipe :
1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels
2- Accompagner les utilisateurs dans leurs usages
3- Mettre en place le contrôle qualité sur ces datasets
Prestation attendue
Construire et maintenir de pipelines data robustes et scalables
Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données
Organiser et structurer le stockage des données
Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données
Construire et maintenir les workflows de la CI/CD centrés données
Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur
Participer à la guilde des data ingénieurs
Assurer l’évolutivité, la sécurité, la stabilité des environnements
Contribuer et veiller à la mise à jour de la documentation
Faire de la veille technologique active dans le domaine
Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe
Profil recherché
Expertises requises
Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data
Compétences solides en data : structures de données, code, architecture
Expériences dans un environnement du Cloud Provider Public Google (GCP)
Une bonne maîtrise des langages Python et SQL est indispensable
Expériences en Spark
La connaissance de dbt est un plus
Expertises dans la mise en place de pipeline ETL / ELT
Bonnes connaissances de Gitlab et Gitlab CI/CD
Capacité à vulgariser et à communiquer sur des aspects purement techniques
Pratique des méthodes Agile : Scrum ou Kanban
Environnement de travail
Nous offrons un environnement de travail flexible, permettant de travailler à temps partiel avec environ 50% de télétravail par semaine. Vous bénéficierez d'une grande autonomie et d'une organisation du travail adaptée à vos besoins, tout en restant connecté avec une équipe dynamique et innovante, qui valorise l'échange d'idées et l'initiative.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer GCP / Python / Spark / DBT / Airflow
skiils