LeHibou

Mission freelance Data Engineer GCP H/F

Charenton-le-Pont (94)

LeHibou

Le poste

Freelance
Dès que possible
6 mois
500-600 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Charenton-le-Pont, Île-de-France
Publiée le 06/09/2024

Partager cette offre

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F

Description de la mission:

Contexte / Objectifs :

Récupérer les données issues de sources externes

• Utiliser la puissance du Datalake

• Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels.

 

Mise en œuvre de la chaîne :

  o d’ingestion de données,

  o de validation de données,

  o de croisement de données,

  o de déversement dans le datalake des données enrichies

 

• Développer dans le respect des règles d’architecture définies

• Développer et documenter les user stories avec l’assistance du Product Owner.

• Produire les scripts de déploiement

• Prioriser les corrections des anomalies

• Assister les équipes d’exploitation

• Participer à la mise en œuvre de la chaîne de delivery continue

• Automatiser les tests fonctionnels

 

Description :

• Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise

• Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent

 

Activités et tâches :

 

• Acheminement de la donnée

• Mise à disposition de la donnée aux équipes utilisatrices

• Mise en production de modèles statistiques

• Suivi de projet de développement

• Développement job spark

• Traitement et ingestion de plusieurs formats des données

• Développement des scripts

• Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données

• Développement des moyens de restitution via génération de fichier et ou API & Dashboarding

• Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers

• Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI)

• Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP

• Participer à la conception, mise en place et administration de solutions Big Data

• Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka

• Normalisation et agrégation des données afin de produire les rapports sous forme de Business View


Compétences / Qualités indispensables :

Plateforme et environnement GCP (indispensable),   • Environnement GKE,   • Stockage : HDFS / GCS,   • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala,   • Planification : Airflow / Composer,   • DWH : SQL, BigQuery, BigTable,   • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build


Informations concernant le télétravail : 2 jours

Profil recherché

• Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise

• Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent

Environnement de travail

Compétences / Qualités indispensables :

Plateforme et environnement GCP (indispensable),   • Environnement GKE,   • Stockage : HDFS / GCS,   • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala,   • Planification : Airflow / Composer,   • DWH : SQL, BigQuery, BigTable,   • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build

Boulogne-Billancourt, Île-de-France
20 - 99 salariés
ESN
83%... c’est la croissance de LeHibou en 2022, avec un chiffre d’affaires de 52 Millions d’euros ! LeHibou a été classé en 3ème position parmi les 500 sociétés françaises qui ont fait le plus de croissance (Classement Les Echos 2020) et poursuit activement son développement. Première plateforme d'intermédiation entre freelances et grandes entreprises dans le domaine de l’IT, LeHibou propose une nouvelle approche au secteur du Consulting Informatique en adoptant les nouveaux codes du freelancing. En utilisant l’intelligence artificielle et le Big Data, LeHibou permet une mise en relation rapide et efficace entre des entreprises (CAC40 & ETI) et les meilleurs freelances IT du marché. Un modèle hybride de « plateforme de services », avec une partie digitalisée et un accompagnement off-line réalisé par des équipes de choc ! Déjà plus de 72 000 consultants se sont inscrits sur la plateforme qui a ouvert des bureaux à Bordeaux, Toulouse, Nantes, Lyon et qui entame désormais son expansion à l’international.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +6 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Data Engineer GCP H/F

LeHibou

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous