UCASE CONSULTING

Offre d'emploi DATA ENGINEER GCP

Paris

UCASE CONSULTING

Le poste

Freelance
CDI
6 mois
43k-93k €⁄an, 1 050-1 550 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 24/12/2024

Partager cette offre

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,

Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie et rigueur

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

• Proactivité et prise d’initiative

Profil recherché

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,

Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie et rigueur

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

• Proactivité et prise d’initiative

Environnement de travail

Missions principales :

• Participer aux analyses, études d’impacts et cadrage techniques

• Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement

• Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants

• Rédiger la documentation technique des data products

• Assurer un support aux testeurs

• Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective

Livrables principaux :

• Rédiger les documentations techniques liés à ta solution, incluant le modèle de

données, les procédures, l’ordonnancements

• Faire des propositions techniques

Compétences techniques :

• Langages de programmation : Python, SQL, Scripts Shell

• Services de streaming data : Kafka

• Services d’ingestion des données : Kafka Connect, SFTP

• Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint

• Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow

• Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV,

Excel)

• Outils de collaboration et de CI/CD : GitLab, Flamingo

Utilisation de plateformes pour le développement et le déploiement : Docker,

Kubernetes, Kustomize, Helm, Terraform

• Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.

• Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Compétences transverses :

• Autonomie et rigueur

• Curiosité, veille technologie sur le data engineering et sur l’AI / ML

• Capacité à aborder des problèmes complexes de manière structurée

• Aptitude à concevoir des solutions innovantes

• Capacité d’écoute, d’analyse et de synthèse

• Capacité à communiquer, à travailler en équipe et excellent relationnel

• Proactivité et prise d’initiative

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +6 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

DATA ENGINEER GCP

UCASE CONSULTING

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous