Le poste DATA ENGINEER GCP
Partager cette offre
Missions principales :
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
Livrables principaux :
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
• Faire des propositions techniques
Compétences techniques :
• Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,
Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Compétences transverses :
• Autonomie et rigueur
• Curiosité, veille technologie sur le data engineering et sur l’AI / ML
• Capacité à aborder des problèmes complexes de manière structurée
• Aptitude à concevoir des solutions innovantes
• Capacité d’écoute, d’analyse et de synthèse
• Capacité à communiquer, à travailler en équipe et excellent relationnel
• Proactivité et prise d’initiative
Profil recherché
Missions principales :
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
Livrables principaux :
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
• Faire des propositions techniques
Compétences techniques :
• Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,
Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Compétences transverses :
• Autonomie et rigueur
• Curiosité, veille technologie sur le data engineering et sur l’AI / ML
• Capacité à aborder des problèmes complexes de manière structurée
• Aptitude à concevoir des solutions innovantes
• Capacité d’écoute, d’analyse et de synthèse
• Capacité à communiquer, à travailler en équipe et excellent relationnel
• Proactivité et prise d’initiative
Environnement de travail
Missions principales :
• Participer aux analyses, études d’impacts et cadrage techniques
• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement
• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
• Rédiger la documentation technique des data products
• Assurer un support aux testeurs
• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective
Livrables principaux :
• Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l’ordonnancements
• Faire des propositions techniques
Compétences techniques :
• Langages de programmation : Python, SQL, Scripts Shell
• Services de streaming data : Kafka
• Services d’ingestion des données : Kafka Connect, SFTP
• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,
Excel)
• Outils de collaboration et de CI/CD : GitLab, Flamingo
Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
• Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Compétences transverses :
• Autonomie et rigueur
• Curiosité, veille technologie sur le data engineering et sur l’AI / ML
• Capacité à aborder des problèmes complexes de manière structurée
• Aptitude à concevoir des solutions innovantes
• Capacité d’écoute, d’analyse et de synthèse
• Capacité à communiquer, à travailler en équipe et excellent relationnel
• Proactivité et prise d’initiative
Postulez à cette offre !
Trouvez votre prochaine mission parmi +6 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
DATA ENGINEER GCP
UCASE CONSULTING