Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
DATA ENGINEER GCP
Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Offre d'emploi
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Mission freelance
Data engineer GCP SPARK PYTHON
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

Mission freelance
Tech Lead Cloud Data – GCP, Spark, Scala
Notre client, recherche un Tech Lead GCP (H/F) dans le cadre d'une longue mission. Rejoindre une équipe data innovante dans le secteur bancaire pour piloter la mise en œuvre d’une plateforme de traitement de données via datalake, dans un environnement multi-cloud (GCP/Azure). - Récupérer les données issues de sources externes - Exploiter le datalake pour le traitement et la production d’agrégats (journaliers, hebdomadaires, mensuels) - Mettre en œuvre la chaîne complète d'ingestion, validation, croisement et alimentation du datalake - Développer en conformité avec les règles d’architecture définies - Documenter les user stories avec le support du Product Owner - Produire les scripts de déploiement - Gérer la priorisation et la correction des anomalies - Assister les équipes d’exploitation - Participer à la mise en place de la chaîne de delivery continue - Automatiser les tests fonctionnels

Mission freelance
Data Engineer GCP
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer GCP . Nous étudions — prioritairement — les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité sur site client Tarif journalier Merci d’indiquer la référence MDE/DATA/4901 dans l’objet de votre message Définition du besoin Une Direction numérique mène des projets transverses en collaboration avec d’autres directions, dont une Direction Data créée pour faire de la donnée un levier de croissance des offres numériques. La Direction Data a trois missions : Maximiser la collecte de données dans le respect des réglementations en vigueur, Développer la connaissance et l’expérience utilisateurs, Mettre à disposition des équipes internes des outils de pilotage et d’aide à la décision La prestation s’effectue au sein d’une équipe Data dédiée (composée d’un Product Owner, d’un Data Steward et d’un Data Engineer) et en collaboration avec les autres équipes Data, au cœur de la plateforme Data. Stack technique principale : Python, Spark, SQL, dbt, BigQuery, Airflow (orchestration), Terraform et Terragrunt (industrialisation), ainsi que d’autres services Google Cloud Platform (GCP) . Prestations attendues Déployer des datasets normés sur un ou plusieurs data domains : Utilisateurs , Comportements , Référentiels . Accompagner les utilisateurs dans leurs usages. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : Participer aux phases de conception, planification et réalisation des tâches, Construire et maintenir des pipelines data robustes et scalables, Accompagner l’équipe dans l’exploitation et le requêtage des données, Organiser et structurer le stockage des données, Mettre en place et maintenir des infrastructures scalables adaptées à l’accroissement des volumes, Contribuer à la gouvernance des données en assurant qualité, fiabilité, intégrité , Construire et maintenir les workflows CI/CD , Partager les bonnes pratiques avec les autres Data Engineers, Assurer l’ évolutivité , la sécurité et la stabilité des environnements, Participer aux instances des Data Engineers, Contribuer et maintenir la documentation , Assurer une veille technologique active

Offre d'emploi
DATA ENGINEER GCP
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Mission freelance
Data Engineer GCP / Hadoop – Pipelines de données & DatOps
Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe. Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP , et secondairement sur la mise en place d’une plateforme data sur Hadoop. Vos missions : Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation). Faire évoluer les outils de gestion et d’automatisation des flux de données. Collaborer avec les équipes DevOps pour les évolutions de la plateforme. Participer activement aux rituels agiles et contribuer à l’amélioration continue.

Mission freelance
Ingénieur de données GCP (H/F)
o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Offre d'emploi
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme
Offre d'emploi
Data Eng GCP Rouen
Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.
Offre d'emploi
Data analyst H/F
🎯 Venez renforcer nos équipes ! Afin d’accompagner nos clients finaux et de renforcer nos équipes dans le cadre de projets à forte valeur ajoutée sur nos activités, nous recherchons pour notre agence Lilloise un Data Analyst H/F. 📍 Ce qui vous attend : Intégré à l’une de nos équipes, vous participerez aux différentes phases d’analyse et de traitement de la donnée. Vos principales missions permettront de collecter, organiser et exploiter les données stratégiques du client afin de mettre à sa disposition des informations et des outils fiables pour l’aider à prendre des décisions pertinentes. Dans ce cadre, vos principales activités s’articuleront autour de : L’analyse et la compréhension des enjeux et besoins métiers et techniques La localisation et la compréhension des données de production, des processus de mise à jour et des règles de gestion des données La définition de l'architecture et l’identification des spécifications techniques du système cible en tenant compte de l'ensemble des contraintes Le développement de l'ensemble des processus d'intégration : préparation, extraction, transformation, chargement La modélisation et l’enrichissement des DataLakes, DataWarehouses et DataMarts dédiés à une fonction particulière dans l'entreprise La mise en œuvre des outils d'analyse et tableaux de bords associés permettant une exploitation de données collectées en réponse aux besoins clients

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."

Offre d'emploi
Systeme Architect Data GCP
Compétences : - Maîtrise technique de l'architecture GCP orientée data (notamment Big Query) et le processing de données via dbt, bonnes notions de finops pour proposer des solutions efficientes d'un point de vue coûts. - Connaissance approfondie des techniques d'anonymisation, de pseudonymisation et de gestion du cycle de vie des données client. - Connaissance des bonnes pratiques de sécurité (moindre privilège, chiffrement, data access management, gestion des accès). - Expérience en cartographie et inventaire des données. - Connaissance des problématiques de gestion des identifiants techniques notamment en cas d'anonymisation. - Connaissances des exigences non fonctionnelles pour les sujets Data. - La connaissance d'outils d'intégration de données et de PowerBI est un plus. - Connaissances réglementaires : Bonne connaissance des réglementations sur les données client (RGPD, PIPL), ainsi que des bonnes pratiques en matière de gestion des données clients. Vous guiderez les choix et serez responsable de la garantir la cohérence technologique et architecturale des solutions avec la plateforme existante. Soft Skills : Responsabilité, collaboration, pensée critique, pédagogie et capacité à vulgariser. Nombre d'années d'expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect, avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Client : Secteur du luxe Site : Paris, 3 jours par semaine sur site. Date de démarrage : 18/09/2025 Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité
Mission freelance
Data Engineer GCP – Freelance (H/F)
Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .

Mission freelance
Data Analyst DBT GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié

Mission freelance
Data Engineer
En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.