UCASE CONSULTING

Offre d'emploi Data Engineer GCP / Python

Paris

UCASE CONSULTING

Publiée le 12/03/2025

Partager cette offre

Je recherche pour un de mes clients un Data Engineer GCP / Python :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data

• Réaliser le développement dans les environnements technologiques attendus

• Rédiger la documentation technique

• Assurer un support aux testeurs

Livrables principaux :

• Réaliser du code applicatif

• Rédiger les documentations techniques liés à ta solution,

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Profil recherché

Je recherche pour un de mes clients un Data Engineer GCP / Python :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data

• Réaliser le développement dans les environnements technologiques attendus

• Rédiger la documentation technique

• Assurer un support aux testeurs

Livrables principaux :

• Réaliser du code applicatif

• Rédiger les documentations techniques liés à ta solution,

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Environnement de travail

Je recherche pour un de mes clients un Data Engineer GCP / Python :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data

• Réaliser le développement dans les environnements technologiques attendus

• Rédiger la documentation technique

• Assurer un support aux testeurs

Livrables principaux :

• Réaliser du code applicatif

• Rédiger les documentations techniques liés à ta solution,

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +7 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous