Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 14 résultats.
Freelance

Data Engineer GCP Bigquery

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Expertise en BigQuery Connaissance approfondie du SQL Connaissance de Terraform Java / Python & SQL Devops sur Github

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer GCP FR/EN - ASAP - 92

Montreal Associates

Contexte de la Mission : Nous recherchons un Data Engineer expérimenté sur Google Cloud Platform (GCP) pour contribuer à des projets data ambitieux, notamment : Automatiser l’alimentation de solutions Anaplan via des pipelines GCP (BigQuery → workflows). Déployer un framework de monitoring de la qualité des données (DQ checks automatisés). Développer des briques techniques pour accélérer la transformation data des métiers. Responsabilités Principales : Conception & Déploiement de Pipelines Data : Créer des workflows ETL/ELT sur GCP ( BigQuery, Cloud Workflows, Cloud Functions ) pour alimenter Anaplan et autres outils. Industrialiser des processus de qualité/data observability (alertes, dashboards). Optimiser les modèles de données et les requêtes SQL/Python pour des volumétries importantes. Infrastructure as Code & Industrialisation Automatiser le déploiement via Terraform (IaC). Mettre en place des pipelines CI/CD ( GitHub ) pour une intégration continue. Collaboration Transverse : Travailler avec les équipes Data Analysts, Data Scientists et métiers pour identifier les besoins. Documenter les solutions techniques pour les équipes internes. Stack Technique : Cloud GCP BigQuery, Cloud Storage, Workflows, Cloud Build, Cloud Run, Cloud Functions DevOps CI/CD (GitHub), Terraform (IaC) SQL avancé, Python (bibliothèques data : Pandas, Apache Beam, etc.)

Démarrage
Durée 7 jours
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Courbevoie, Île-de-France
CDI

Data engineer GCP

KOMEET TECHNOLOGIES

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery

Démarrage Dès que possible
Salaire 40k-65k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer GCP / Talend

Onetribe SAS

Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques du client • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assurer la maintenance corrective ou évolutive • S’assurer de la cohérence des livrables avec les règles et bonnes pratiques prédéfinies

Démarrage Dès que possible
Durée 1 an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur SQL / ETL Talend / Data Engineer GCP (H/F)

HIGHTEAM

Au sein d’une Data Factory jouant un rôle central dans l’exploitation et l’optimisation des données, nous recherchons un Data Engineer expérimenté pour renforcer une squad dédiée au périmètre E-Commerce . Notre mission est de concevoir une infrastructure data robuste, construire des pipelines fiables et produire des insights à forte valeur ajoutée pour appuyer les initiatives stratégiques de l’entreprise. En lien étroit avec un binôme Product Owner / Tech Lead, vous participerez à toutes les étapes des projets data : de l’analyse du besoin à la mise en production des solutions. Vos missions principales : Participer à l’analyse du besoin et à la conception de modèles de données adaptés Construire et maintenir les pipelines de collecte, transformation, stockage et exposition des données Optimiser les performances et fiabiliser les flux de données Garantir la qualité des données grâce à des contrôles et processus automatisés Mettre en place du monitoring, des alertes et mécanismes de reprise automatique Participer à la recette technique et fonctionnelle Rédiger les livrables projet (spécifications, cahier de recette, documentation d’exploitation) Contribuer à l’amélioration continue de la stack data et aux bonnes pratiques d’ingénierie Assurer un reporting régulier et participer au support post-déploiement

Démarrage Dès que possible
Durée 36 mois
Télétravail Télétravail partiel
Lieu Ivry-sur-Seine, Île-de-France
Freelance

Data Engineer GCP & JAVA

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
CDI

Data Engineer expérimenté GCP - Domaine Banque

ARDEMIS PARTNERS

Mission pour un profil de 2 / 3 ans d'expérience environ hors stages / alternance (budget correspondant), pas de profil senior svp. Mission longue renouvelée par période de 3 mois. Dans le cadre de l’industrialisation des projets Data Science pour un client bancaire, nous recherchons un Data Engineer expérimenté maîtrisant l’environnement GCP. Vous interviendrez au sein d’une équipe agile et serez en charge de la conception, de la mise en place et de l’optimisation des pipelines de données. Missions Principales Concevoir, développer et maintenir des pipelines de données robustes et scalables sur Google Cloud Platform (GCP). Assurer l'industrialisation et la mise en production des modèles de Data Science. Automatiser et optimiser les processus de traitement et de transformation des données. Gérer les infrastructures et les workflows de données en environnement cloud. Collaborer avec les Data Scientists et les équipes métier pour garantir la performance et la fiabilité des solutions mises en place. Appliquer les bonnes pratiques DevOps et CI/CD pour l’intégration et le déploiement continu. Assurer la qualité, la sécurité et la conformité des données.

Démarrage Dès que possible
Salaire 20k-37k €⁄an
Télétravail Télétravail partiel
Lieu Aix-en-Provence, Provence-Alpes-Côte d'Azur
CDI

Data Engineer GCP (H/F)

BK CONSULTING

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps

Démarrage Dès que possible
Salaire 40k-54k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer GCP Power BI

Groupe Aptenia

Contexte : Nous recherchons un Data Engineer pour une mission freelance à Paris. Vous intégrerez une équipe dynamique, où vos compétences en gestion de données et en outils BI seront essentielles pour optimiser les processus métiers. Responsabilités : Concevoir et implémenter des solutions de gestion de données avec Power BI. Automatiser les flux de données (Data Flow) et les processus avec Power Automate. Collaborer avec les équipes métiers pour comprendre et répondre à leurs besoins. Adopter une posture de consulting pour conseiller et optimiser les solutions de données.

Démarrage Dès que possible
Durée 6 mois
TJM 500-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer GCP Confirmé

DATSUP

Nous recherchons un Data Engineer GCP pour un client dans le secteur média pour renforcer une équipe data. Votre mission : optimiser l’exploitation des données pour améliorer les offres digitales, assurer une collecte conforme, enrichir l’expérience utilisateur et fournir des outils analytiques aux équipes internes. Adossée à une plateforme cloud, l’équipe développe un produit centralisant les données avec une stack moderne ( SQL, DBT, Airflow, GCP, Python ) en visant performance, qualité et industrialisation.

Démarrage Dès que possible
Durée 12 mois
Salaire 10k-50k €⁄an
TJM 100-500 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer Sénior GCP / JAVA H/F

Karma Partners

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. X est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

Démarrage Dès que possible
Durée 6 mois
TJM 400-590 €⁄j
Télétravail Télétravail partiel
Lieu Nice, Provence-Alpes-Côte d'Azur
CDI
Freelance

Analytics Engineer / Data Engineer GCP | Télétravail Hybride

skiils

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique

Démarrage Dès que possible
Durée 2 ans
Télétravail Télétravail partiel
Lieu France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Lieu Paris, Île-de-France
Freelance

Tech Lead Data Analytics Engineer GCP

KatchMe Consulting

Tech Lead Data Engineer GCP – Squad fonctionnel Nous recherchons un Tech Lead Data Analytics Engineer GCP pour rejoindre l’équipe Data d’un acteur majeur du retail. Le poste est rattaché à une squad fonctionnelle CRM / Marketting/ Customer , avec pour mission de concevoir, développer et optimiser une Data Platform moderne et scalable, au service des équipes métiers et des marques partenaires. Objectifs du poste Implémenter les besoins exprimés par la squad CRM / Customer. Contribuer à la structuration technique de la plateforme data. Être le référent technique en accompagnant les autres membres de la squad. Missions : Développement & Optimisation Superviser et développer des pipelines d’ingestion avec Cloud Pub/Sub , Dataflow , et Cloud Run . Structurer les données en plusieurs couches (brutes, cleansed, curated). Optimiser les performances dans BigQuery (partitionnement, clustering, vues sécurisées). Construire des solutions d’exposition des données via Power BI et autres outils.

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Paris, France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous