Partager cette offre
Concevoir et implémenter des flux de données (ingestion, stockage, transformation, provisionnement) dans le Datalake.
Travailler au sein d'une architecture cloud AWS (S3, Glue, ECS, etc.). Une solide compréhension des services AWS est requise.
Développer et maintenir des systèmes à l'aide du framework Spark, Scala et SQL.
Contribuer à la maintenance opérationnelle du Datalake.
Utiliser les pratiques DevOps et des outils de déploiement automatisé tels que Jenkins, Ansible, CloudFormation, Git et Maven. Bien que la connaissance de ces outils (notamment Git et Maven) soit un atout, elle n'est pas obligatoire.
Prendre en charge les tâches de développement liées aux projets de build.
Profil recherché
Au moins 3 ans d'expérience dans un rôle similaire, notamment en ingénierie des données et dans les environnements cloud.
Excellente maîtrise de Spark, Scala et SQL.
Solide connaissance de l'architecture et des services cloud AWS (S3, Glue, ECS).
Une expérience avec les outils DevOps est un plus, mais n'est pas obligatoire.
Environnement de travail
Il s'agit d'un poste à temps plein à long terme, avec un engagement minimum de plusieurs mois.
Ce poste nécessite 3 jours par semaine sur site à Écully.
Nous cherchons à pourvoir ce poste dès que possible.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.