Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Paris

Votre recherche renvoie 22 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
1
Freelance

Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

YGL consulting

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
TJM 700-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Tech Lead GCP BigQuery Spark Scala API

NEXORIS

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'équipe au sein de laquelle preste déjà des consultants de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données avec des projets novateurs. Tâches et activités de la mission (non exhaustives) : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - Développement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - Méthodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build

Démarrage
Durée 1 an
TJM 700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Lieu Paris, Île-de-France
Freelance
CDI

Expert sécurité GCP

Ewolve

En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

System Architect Data

Tenth Revolution Group

Objecrif de la mission : Vous êtes en charge de la conception et de la mise en œuvre d'une partie du patrimoine d'assets Data & BI (basés sur la Data Platform sur BigQuery) de l'organisation avec un souci d'évolutivité et de performance. Ces assets sont centrés sur les business domains de la Supply Chain et du Développement/Marketing Produit. Une connaissance des problématiques de ces domaines fonctionnels (lead time, prévisions de vente, planification de la distribution, kpis associés, ...) est un facteur déterminant.

Démarrage Dès que possible
Durée 12 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur infrastructure et d’exploitation de la plateforme Data

KEONI CONSULTING

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique

Démarrage Dès que possible
Durée 12 mois
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Head of Data

Phaidon London- Glocomms

Analyser des ensembles de données volumineux et complexes pour relever les défis stratégiques et opérationnels. Donner aux équipes produit les moyens de naviguer dans les tableaux de bord Amplitude et de prendre des décisions éclairées par les données. Fournir des insights exploitables issus des tests A/B pour influencer la feuille de route produit. Créer et faire évoluer une infrastructure de données robuste répondant aux besoins en business intelligence et en data science. Encadrer et encadrer une équipe d'analystes, d'ingénieurs et de data scientists.

Démarrage
Salaire 150k-175k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Steward confirmé (HF) anglais obligatoire

SMARTPOINT

We are looking for a Data Steward (F/M) to manage the data flow, continuity, and quality across our healthcare professional web portal and integrated systems including CRM, Digital Asset Manager, and Google Analytics. The ideal candidate will ensure end-to-end seamless data integration and maintain high data quality standards critical to our operations. Responsibilities : Monitor and maintain data flows between our web portal and connected systems Implement and enforce data quality controls and validation procedures across integrated platforms Identify and resolve data discrepancies, duplications, and integrity issues Document data structures, mappings, and dependencies across systems Collaborate with Data Office and development teams to troubleshoot integration issues Maintain data dictionaries and metadata repositories Develop and execute data quality metrics and reporting Technical Requirements : Ensure proper data mapping and transformation between systems Conduct regular data quality audits and cleansing operations Assist in designing data validation rules and exception handling processes Monitor system integrations for data continuity and completeness Pour l'un de nos clients dans le secteur de la santé. pharmaceutique, nous recherchons un Data Steward (HF) afin de gérer le flux, la continuité et la qualité des données sur un portail web dédié aux professionnels de santé et les systèmes intégrés, notamment le CRM , le Digital Asset Manager et Google Analytics . Le candidat idéal garantira une intégration des données fluide et de bout en bout tout en maintenant des normes de qualité de données élevées, essentielles à nos opérations. Activité : - Surveiller et maintenir les flux de données entre le portail web et les systèmes connectés. - Mettre en œuvre et appliquer des contrôles de qualité des données ainsi que des procédures de validation sur les plateformes intégrées. - Identifier et résoudre les écarts de données, les doublons et les problèmes d'intégrité. - Documenter les structures de données, les mappings et les dépendances entre les systèmes. - Collaborer avec le Data Office et les équipes de développement pour résoudre les problèmes d'intégration. - Maintenir des dictionnaires de données et des référentiels de métadonnées. - Développer et exécuter des indicateurs de qualité de données ainsi que des rapports de suivi.

Démarrage Dès que possible
Durée 6 mois
Salaire 60k-70k €⁄an
TJM 500-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Analyst

Tenth Revolution Group

Je recherche un Data Analyst Freelance pour accompagner une entreprise en pleine croissance dans l’analyse et l’optimisation de ses données. La mission est à pourvoir dès que possible avec une présence requise de 4 jours par semaine sur site à Paris Intra-Muros . Exploiter et analyser les données pour fournir des insights actionnables sur la monétisation et l’engagement des utilisateurs. Utiliser Amplitude Analytics pour suivre le comportement des utilisateurs et identifier des leviers d’optimisation. Manipuler SQL pour extraire, transformer et analyser des données volumineuses. Concevoir et maintenir des tableaux de bord interactifs avec Tableau pour faciliter la prise de décision. Collaborer avec les équipes produit, marketing et data pour répondre aux problématiques business. Assurer la qualité et la fiabilité des données en appliquant des bonnes pratiques analytiques.

Démarrage Dès que possible
Durée 12 mois
TJM 600-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data engineering senior

KEONI CONSULTING

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Démarrage Dès que possible
Durée 12 mois
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Lead Data Engineer GCP

Cherry Pick

RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture

Démarrage Dès que possible
Durée 12 mois
TJM 550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Consultant Métier / Business Analyst

Sapiens Group

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rédaction des spécifications fonctionnelles et techniques. Gestion du backlog : Rédaction des User Stories, critères d'acceptation (DoR, DoD), suivi du développement et validation des livrables. Pilotage et suivi : Coordination entre les équipes métier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de données, requêtage SQL, gestion des bases de données relationnelles et non relationnelles. Amélioration continue : Proposition de solutions innovantes, amélioration des performances et garantie de la qualité des livrables.

Démarrage Dès que possible
Durée 10 mois
Salaire 40k-70k €⁄an
TJM 420-620 €⁄j
Lieu Paris, France
Freelance

Data Engineer Big Query/GCP

TEOLIA CONSULTING

Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Démarrage Dès que possible
Durée 12 mois
TJM 400-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer GCP (H/F)

BK CONSULTING

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps

Démarrage Dès que possible
Salaire 40k-54k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data engineer

OMICRONE

📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Suivant
1

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous