Data Engineer GCP Bigquery

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Expertise en BigQuery Connaissance approfondie du SQL Connaissance de Terraform Java / Python & SQL Devops sur Github
Data Engineer GCP FR/EN - ASAP - 92

Contexte de la Mission : Nous recherchons un Data Engineer expérimenté sur Google Cloud Platform (GCP) pour contribuer à des projets data ambitieux, notamment : Automatiser l’alimentation de solutions Anaplan via des pipelines GCP (BigQuery → workflows). Déployer un framework de monitoring de la qualité des données (DQ checks automatisés). Développer des briques techniques pour accélérer la transformation data des métiers. Responsabilités Principales : Conception & Déploiement de Pipelines Data : Créer des workflows ETL/ELT sur GCP ( BigQuery, Cloud Workflows, Cloud Functions ) pour alimenter Anaplan et autres outils. Industrialiser des processus de qualité/data observability (alertes, dashboards). Optimiser les modèles de données et les requêtes SQL/Python pour des volumétries importantes. Infrastructure as Code & Industrialisation Automatiser le déploiement via Terraform (IaC). Mettre en place des pipelines CI/CD ( GitHub ) pour une intégration continue. Collaboration Transverse : Travailler avec les équipes Data Analysts, Data Scientists et métiers pour identifier les besoins. Documenter les solutions techniques pour les équipes internes. Stack Technique : Cloud GCP BigQuery, Cloud Storage, Workflows, Cloud Build, Cloud Run, Cloud Functions DevOps CI/CD (GitHub), Terraform (IaC) SQL avancé, Python (bibliothèques data : Pandas, Apache Beam, etc.)
Data engineer GCP

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery
Data Engineer GCP / Talend
Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques du client • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assurer la maintenance corrective ou évolutive • S’assurer de la cohérence des livrables avec les règles et bonnes pratiques prédéfinies
Développeur SQL / ETL Talend / Data Engineer GCP (H/F)

Au sein d’une Data Factory jouant un rôle central dans l’exploitation et l’optimisation des données, nous recherchons un Data Engineer expérimenté pour renforcer une squad dédiée au périmètre E-Commerce . Notre mission est de concevoir une infrastructure data robuste, construire des pipelines fiables et produire des insights à forte valeur ajoutée pour appuyer les initiatives stratégiques de l’entreprise. En lien étroit avec un binôme Product Owner / Tech Lead, vous participerez à toutes les étapes des projets data : de l’analyse du besoin à la mise en production des solutions. Vos missions principales : Participer à l’analyse du besoin et à la conception de modèles de données adaptés Construire et maintenir les pipelines de collecte, transformation, stockage et exposition des données Optimiser les performances et fiabiliser les flux de données Garantir la qualité des données grâce à des contrôles et processus automatisés Mettre en place du monitoring, des alertes et mécanismes de reprise automatique Participer à la recette technique et fonctionnelle Rédiger les livrables projet (spécifications, cahier de recette, documentation d’exploitation) Contribuer à l’amélioration continue de la stack data et aux bonnes pratiques d’ingénierie Assurer un reporting régulier et participer au support post-déploiement
Data Engineer GCP & JAVA

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform
Data Engineer expérimenté GCP - Domaine Banque

Mission pour un profil de 2 / 3 ans d'expérience environ hors stages / alternance (budget correspondant), pas de profil senior svp. Mission longue renouvelée par période de 3 mois. Dans le cadre de l’industrialisation des projets Data Science pour un client bancaire, nous recherchons un Data Engineer expérimenté maîtrisant l’environnement GCP. Vous interviendrez au sein d’une équipe agile et serez en charge de la conception, de la mise en place et de l’optimisation des pipelines de données. Missions Principales Concevoir, développer et maintenir des pipelines de données robustes et scalables sur Google Cloud Platform (GCP). Assurer l'industrialisation et la mise en production des modèles de Data Science. Automatiser et optimiser les processus de traitement et de transformation des données. Gérer les infrastructures et les workflows de données en environnement cloud. Collaborer avec les Data Scientists et les équipes métier pour garantir la performance et la fiabilité des solutions mises en place. Appliquer les bonnes pratiques DevOps et CI/CD pour l’intégration et le déploiement continu. Assurer la qualité, la sécurité et la conformité des données.
Data Engineer GCP (H/F)

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps
Data Engineer GCP Power BI
Contexte : Nous recherchons un Data Engineer pour une mission freelance à Paris. Vous intégrerez une équipe dynamique, où vos compétences en gestion de données et en outils BI seront essentielles pour optimiser les processus métiers. Responsabilités : Concevoir et implémenter des solutions de gestion de données avec Power BI. Automatiser les flux de données (Data Flow) et les processus avec Power Automate. Collaborer avec les équipes métiers pour comprendre et répondre à leurs besoins. Adopter une posture de consulting pour conseiller et optimiser les solutions de données.
Data Engineer GCP Confirmé

Nous recherchons un Data Engineer GCP pour un client dans le secteur média pour renforcer une équipe data. Votre mission : optimiser l’exploitation des données pour améliorer les offres digitales, assurer une collecte conforme, enrichir l’expérience utilisateur et fournir des outils analytiques aux équipes internes. Adossée à une plateforme cloud, l’équipe développe un produit centralisant les données avec une stack moderne ( SQL, DBT, Airflow, GCP, Python ) en visant performance, qualité et industrialisation.
Data Engineer Sénior GCP / JAVA H/F

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. X est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Tech Lead Data Analytics Engineer GCP

Tech Lead Data Engineer GCP – Squad fonctionnel Nous recherchons un Tech Lead Data Analytics Engineer GCP pour rejoindre l’équipe Data d’un acteur majeur du retail. Le poste est rattaché à une squad fonctionnelle CRM / Marketting/ Customer , avec pour mission de concevoir, développer et optimiser une Data Platform moderne et scalable, au service des équipes métiers et des marques partenaires. Objectifs du poste Implémenter les besoins exprimés par la squad CRM / Customer. Contribuer à la structuration technique de la plateforme data. Être le référent technique en accompagnant les autres membres de la squad. Missions : Développement & Optimisation Superviser et développer des pipelines d’ingestion avec Cloud Pub/Sub , Dataflow , et Cloud Run . Structurer les données en plusieurs couches (brutes, cleansed, curated). Optimiser les performances dans BigQuery (partitionnement, clustering, vues sécurisées). Construire des solutions d’exposition des données via Power BI et autres outils.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.