UCASE CONSULTING

Offre d'emploi DATA ENGINEER GCP DBT

Paris

UCASE CONSULTING

Le poste

Freelance
CDI
6 mois
78k-128k €⁄an, 550-950 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 17/12/2024

Partager cette offre

Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie, rigueur, proactivité et prise d’initiative

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.

Profil recherché

Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie, rigueur, proactivité et prise d’initiative

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.

Environnement de travail

Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé :

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT)

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

• Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie, rigueur, proactivité et prise d’initiative

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +7 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

DATA ENGINEER GCP DBT

UCASE CONSULTING

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous