Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 59 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Expert BigQuery – Lille (avec télétravail)

NaxoTech

Nous recherchons un expert BigQuery pour mettre en place une gouvernance data solide, optimiser les projets existants et accompagner les équipes tech dans l’adoption des bonnes pratiques. Vous interviendrez sur l’architecture, la performance (quotas, slots, BI Engine…), l’optimisation des requêtes à fort volume, et la gestion des modèles de facturation. Vous serez également garant de la qualité, de la compréhension et de la diffusion des données au sein de l’entreprise. Votre rôle est central dans la structuration du cycle de vie des données et la collaboration avec le Chief Data Officer.

Démarrage Dès que possible
Durée 1 mois
TJM 400-480 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

DATA INGENIEUR EXPERT BIGQUERY

HAYS France

Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.

Démarrage Dès que possible
Durée 3 ans
TJM 100-520 €⁄j
Lieu Lille, Hauts-de-France
Freelance

Data ingénieur - LOOKER BIGQUERY

HAYS France

SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Démarrage Dès que possible
Durée 3 ans
TJM 100-520 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

YGL consulting

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
TJM 700-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Tech Lead GCP BigQuery Spark Scala API

NEXORIS

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'équipe au sein de laquelle preste déjà des consultants de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données avec des projets novateurs. Tâches et activités de la mission (non exhaustives) : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - Développement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - Méthodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build

Démarrage
Durée 1 an
TJM 700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer cloud GCP BigQuery F/H

Fnac Darty

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Démarrage
Salaire 50k-70k €⁄an
Télétravail Télétravail partiel
Lieu Ivry-sur-Seine, Île-de-France
Freelance

Data Engineer (GCP/ Bigquery) F/H

Anywr freelance

Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. Ses principales missions seront les suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Data sous Google Cloud Platform. - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services : big querry, stockage cloud google, fonction cloud google... - Expérience avec les processus de transformation les données et une connaissance du langage Python et de l’ordonnanceur Airflow - Experience souhaitée sur des projets DATA et leurs implémentations - Excellentes connaissances du SQL et des grands principes de modèle de données - Capacité d'analyse de spécifications fonctionnelles pour les traduire en conception technique. - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers.

Démarrage Dès que possible
Durée 3 ans
TJM 400-450 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Lieu Paris, Île-de-France
Freelance

Data Engineer GCP & JAVA

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer - GCP

Groupe Ayli

📢 [OFFRE D’EMPLOI] Data Engineer – GCP | PySpark | BigQuery | Airflow 📍 Lieu : Paris 🕒 Expérience requise : 4 ans minimum 📅 Disponibilité : ASAP / à convenir Nous recherchons un Data Engineer expérimenté pour renforcer une équipe data dynamique intervenant sur des projets à fort volume. 🎯 Vos missions principales : Conception et développement de pipelines data scalables Traitement et transformation de données avec PySpark Exploitation de l’écosystème GCP : BigQuery, DataProc, Cloud Storage Orchestration avec Airflow / Cloud Composer Participation à l’industrialisation des workflows et à la mise en place des bonnes pratiques DevOps/DataOps

Démarrage Dès que possible
Durée 12 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer

Coriom Conseil

BIG QUERY - Expert - Impératif SQL - Confirmé - Impératif OPTIMISATION BIG QUERY - Confirmé - Impératif GOOGLE CLOUD - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.

Démarrage Dès que possible
Durée 12 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Data Engineer Sénior (H/F)

Come Together

Nous recherchons pour un client grand compte de la région un(e) Data Engineer Mise en place d'une gouvernance Big Query, de ses bonnes pratiques d'usage et optimisation des projets existants avec les équipes de développement. Pour cela vous devez: - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.

Démarrage Dès que possible
Durée 3 mois
TJM 470-530 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance
CDI

Expert sécurité GCP

Ewolve

En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur Java GCP - Lille

Codezys

Contexte de la mission Client retail Mission longue Contexte du Poste : Dans le cadre de la refonte technique de l'orchestration de la Supply Chain, nous recherchons un Développeur Java GCP afin de renforcer notre équipe technique. Vous jouerez un rôle clé dans la modernisation de notre infrastructure et de nos systèmes en migrant et en optimisant nos solutions actuelles de traitement tariffaire vers des technologies basées sur Google Cloud Platform (GCP). Missions principales : Développement d'applications Java : Concevoir, développer et maintenir des orchestrations Java performantes, évolutives et sécurisées. Travailler sur des microservices Java pour garantir une architecture modulaire et flexible. Intégration avec Google Cloud Platform (GCP) : Mettre en œuvre des services GCP (Compute Engine, Kubernetes Engine, Cloud Functions, BigQuery, Pub/Sub, etc.) dans le cadre de la refonte. Utiliser notre CI/CD pour l'automatisation des déploiements et la gestion des ressources cloud. Optimiser l'infrastructure existante en tirant parti des outils et services GCP pour la scalabilité, la performance et la sécurité. Refonte technique de l'infrastructure : Participer à la refonte des applications existantes pour les adapter aux meilleures pratiques du cloud. Collaborer avec les architectes pour assurer la mise en place de solutions techniques adaptées aux besoins de l’entreprise. Collaboration avec les équipes interfonctionnelles : Travailler en étroite collaboration avec les équipes produit, DevOps et QA pour s'assurer de la bonne mise en œuvre des fonctionnalités et des exigences techniques. Participer aux revues de code et à l'amélioration continue des pratiques de développement. Assurance qualité et performances : Mettre en place des tests automatisés (unitaires, d'intégration) pour garantir la stabilité du code. Participer à l'optimisation des performances de l'application en collaboration avec l'équipe DevOps.

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 330-430 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Product Owner DATA - CRM - RGPD - GCP - POWER BI

YGL consulting

Maintien et l’amélioration de la plateforme : · Définir et veiller à l’implémentation du plan de marquage de la CDP · Définir et veiller à la collecte de la donnée froide · Rédiger les cahiers de recette et les réaliser · Veiller à la qualité de la donnée de la plateforme et la monitorer · Identifier les opportunités d’évolutions liées à la roadmap Mediarithmics · Identifier les opportunités d’évolutions liées aux UC La gestion du delivery et de la roadmap : · Identification et gestion des priorités · Suivi et gestion du backlog JIRA · Coordination avec toutes les parties prenantes liées au projet La collaboration et la coordination des équipes pluridisciplinaires en adhérence sur les projets (cadrage, communication, comité de pilotage, …) : · Equipe Data Expérience : Chefs de projet CDP, Chef de projet technique Data, PO Privacy · Equipe Data : PO UC Perso, PO Big Data, PO équipe proxy … · Equipe Produit : PO et Développeurs des Offres France Télévisions · Equipes transverses : Interlocuteurs techniques des équipes CRM, acquisition, Pub, SRC, … · Partenaires : Interlocuteurs Mediarithmics Documentation et communication · Création et mise à jour de la documentation (Confluence) sur l’outil CDP, son implémentation et son paramétrage · Participer à la communication des avancées des chantiers de la roadmap auprès de la Direction Data

Démarrage Dès que possible
Durée 12 mois
TJM 500-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous