UCASE CONSULTING

Offre d'emploi TechLead Data GCP

Paris

UCASE CONSULTING

Le poste

Freelance
CDI
6 mois
40k-68k €⁄an, 650-1 150 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 24/12/2024

Partager cette offre

Je recherche pour un de mes clients un TechLead Data :

Missions principales :

• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien

• Effectuer les audits et les contrôles des développements réalisés : Sécurité,

Maintenabilité, Robustesse et Performance

• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Études d’impact technique

• Faire des propositions techniques

• Schéma de solution des flux, modèle de données

• Fournir des chiffrages détaillés des futures réalisations

• Relecture de code technique

• Rédaction de SFD, STD, Manuel d’installation

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

Compétences techniques :

Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Profil recherché

1) Missions principales :

• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien

• Effectuer les audits et les contrôles des développements réalisés : Sécurité,

Maintenabilité, Robustesse et Performance

• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

2) Livrables principaux :

• Études d’impact technique

• Faire des propositions techniques

• Schéma de solution des flux, modèle de données

• Fournir des chiffrages détaillés des futures réalisations

• Relecture de code technique

• Rédaction de SFD, STD, Manuel d’installation

• Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

3) Compétences techniques :

Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Environnement de travail

1) Missions principales :

• Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien

• Effectuer les audits et les contrôles des développements réalisés : Sécurité,

Maintenabilité, Robustesse et Performance

• Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

2) Livrables principaux :

• Études d’impact technique

• Faire des propositions techniques

• Schéma de solution des flux, modèle de données

• Fournir des chiffrages détaillés des futures réalisations

• Relecture de code technique

• Rédaction de SFD, STD, Manuel d’installation

• Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

3) Compétences techniques :

Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +6 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

TechLead Data GCP

UCASE CONSULTING

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous