Partager cette offre
đą [OFFRE DâEMPLOI] Data Engineer â GCP | PySpark | BigQuery | Airflow
đ Lieu : Paris
đ ExpĂ©rience requise : 4 ans minimum
đ
Disponibilité : ASAP / à convenir
Nous recherchons un Data Engineer expérimenté pour renforcer une équipe data dynamique intervenant sur des projets à fort volume.
đŻ Vos missions principales :
Conception et développement de pipelines data scalables
Traitement et transformation de données avec PySpark
Exploitation de lâĂ©cosystĂšme GCP : BigQuery, DataProc, Cloud Storage
Orchestration avec Airflow / Cloud Composer
Participation Ă lâindustrialisation des workflows et Ă la mise en place des bonnes pratiques DevOps/DataOps
Profil recherché
đŻ Vos missions principales :
Conception et développement de pipelines data scalables
Traitement et transformation de données avec PySpark
Exploitation de lâĂ©cosystĂšme GCP : BigQuery, DataProc, Cloud Storage
Orchestration avec Airflow / Cloud Composer
Participation Ă lâindustrialisation des workflows et Ă la mise en place des bonnes pratiques DevOps/DataOps
Environnement de travail
đŻ Vos missions principales :
Conception et développement de pipelines data scalables
Traitement et transformation de données avec PySpark
Exploitation de lâĂ©cosystĂšme GCP : BigQuery, DataProc, Cloud Storage
Orchestration avec Airflow / Cloud Composer
Participation Ă lâindustrialisation des workflows et Ă la mise en place des bonnes pratiques DevOps/DataOps
Postulez Ă cette offre !
Trouvez votre prochaine mission parmi +9âŻ000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critÚres importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthĂšque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.