Le poste TechLead Data GCP
Partager cette offre
Je recherche pour un de mes clients un TechLead Data :
Missions principales :
• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien
• Effectuer les audits et les contrôles des développements réalisés : Sécurité,
Maintenabilité, Robustesse et Performance
• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
Livrables principaux :
• Études d’impact technique
• Faire des propositions techniques
• Schéma de solution des flux, modèle de données
• Fournir des chiffrages détaillés des futures réalisations
• Relecture de code technique
• Rédaction de SFD, STD, Manuel d’installation
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
Compétences techniques :
Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
• Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Profil recherché
1) Missions principales :
• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien
• Effectuer les audits et les contrôles des développements réalisés : Sécurité,
Maintenabilité, Robustesse et Performance
• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
2) Livrables principaux :
• Études d’impact technique
• Faire des propositions techniques
• Schéma de solution des flux, modèle de données
• Fournir des chiffrages détaillés des futures réalisations
• Relecture de code technique
• Rédaction de SFD, STD, Manuel d’installation
• Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
3) Compétences techniques :
Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
• Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Environnement de travail
1) Missions principales :
• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien
• Effectuer les audits et les contrôles des développements réalisés : Sécurité,
Maintenabilité, Robustesse et Performance
• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
2) Livrables principaux :
• Études d’impact technique
• Faire des propositions techniques
• Schéma de solution des flux, modèle de données
• Fournir des chiffrages détaillés des futures réalisations
• Relecture de code technique
• Rédaction de SFD, STD, Manuel d’installation
• Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
3) Compétences techniques :
Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
• Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Postulez à cette offre !
Trouvez votre prochaine mission parmi +6 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
TechLead Data GCP
UCASE CONSULTING