Le poste BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Partager cette offre
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l'accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Profil recherché
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l'accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Environnement de travail
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data.
Activités principales de la prestation :
• Développement de la plateforme de micro-services AWS
• Industrialisation des cas d’usage métiers du groupe en lien avec les médias
• Gestion de la qualité, la fiabilité et l'accessibilité des données
• Développement des pipelines de traitement de données avec orientation média
• Collaboration avec les équipes de Data Science pour comprendre les besoins en données et
mise en place des solutions appropriées
• Maintenir et optimiser des systèmes de données existants
Niveau d’expertise attendu pour la réalisation de la prestation :
Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé)
Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé).
Un minimum de 4 ans d’expérience est attendu.
Expériences requises pour la réalisation de la prestation :
• Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT
• Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME
• Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME
• Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME
Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME
• Expérience avec les bases de données SQL et Graph: CONFIRME
• Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE
• Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
YGL consulting