Partager cette offre
Nous recherchons un data engineer GCP Spark/Scala avec pour missions principales :
Collecter des données provenant de diverses sources externes.
Exploiter les capacités du Datalake sur GCP.
Implémenter l’ensemble du processus incluant :
L’ingestion des données,
La validation des données,
Le croisement des données,
L’intégration des données enrichies dans le Datalake.
Développer en respectant les principes d’architecture définis.
Rédiger et documenter les user stories en collaboration avec le Product Owner.
Rédiger les scripts nécessaires au déploiement.
Identifier et prioriser la correction des anomalies.
Assister les équipes en charge de l’exploitation.
Contribuer à la mise en place d’une chaîne de livraison continue.
Automatiser les tests fonctionnels.
Encadrer et superviser le travail des data engineers de la squad.
Profil recherché
Compétences relationnelles :
Forte aptitude au travail en équipe, dans un environnement Scrum / Kanban.
Excellentes capacités relationnelles et de communication, avec une attention particulière aux détails.
Sensibilité aux évolutions technologiques et veille active sur les stacks utilisées.
Capacité à accompagner et encadrer les équipes de développement sur GCP.
Environnement de travail
Maîtrise approfondie de la plateforme Data GCP.
Stockage : HDFS, GCS.
Traitement des données : Bonne connaissance de Spark, Kafka et Scala.
Orchestration : Airflow, Composer.
Gouvernance des données : Apache Atlas, Hive.
Méthodologies : Approche agile (Scrum, Kanban), gestion de versions avec Git.
Data Warehouse : SQL, Oracle, BigQuery.
Outils de déploiement et delivery : Git, Ansible, Docker, Terraform, Jenkins, Cloud Build
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.