Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Expert BigQuery – Lille (avec télétravail)

Nous recherchons un expert BigQuery pour mettre en place une gouvernance data solide, optimiser les projets existants et accompagner les équipes tech dans l’adoption des bonnes pratiques. Vous interviendrez sur l’architecture, la performance (quotas, slots, BI Engine…), l’optimisation des requêtes à fort volume, et la gestion des modèles de facturation. Vous serez également garant de la qualité, de la compréhension et de la diffusion des données au sein de l’entreprise. Votre rôle est central dans la structuration du cycle de vie des données et la collaboration avec le Chief Data Officer.
DATA INGENIEUR EXPERT BIGQUERY

Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
Data ingénieur - LOOKER BIGQUERY

SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Tech Lead GCP BigQuery Spark Scala API

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'équipe au sein de laquelle preste déjà des consultants de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données avec des projets novateurs. Tâches et activités de la mission (non exhaustives) : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - Développement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - Méthodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build
Data Engineer cloud GCP BigQuery F/H
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Data Engineer (GCP/ Bigquery) F/H

Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. Ses principales missions seront les suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Data sous Google Cloud Platform. - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services : big querry, stockage cloud google, fonction cloud google... - Expérience avec les processus de transformation les données et une connaissance du langage Python et de l’ordonnanceur Airflow - Experience souhaitée sur des projets DATA et leurs implémentations - Excellentes connaissances du SQL et des grands principes de modèle de données - Capacité d'analyse de spécifications fonctionnelles pour les traduire en conception technique. - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers.
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Data Engineer GCP & JAVA

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform
Data Engineer - GCP
📢 [OFFRE D’EMPLOI] Data Engineer – GCP | PySpark | BigQuery | Airflow 📍 Lieu : Paris 🕒 Expérience requise : 4 ans minimum 📅 Disponibilité : ASAP / à convenir Nous recherchons un Data Engineer expérimenté pour renforcer une équipe data dynamique intervenant sur des projets à fort volume. 🎯 Vos missions principales : Conception et développement de pipelines data scalables Traitement et transformation de données avec PySpark Exploitation de l’écosystème GCP : BigQuery, DataProc, Cloud Storage Orchestration avec Airflow / Cloud Composer Participation à l’industrialisation des workflows et à la mise en place des bonnes pratiques DevOps/DataOps
Data Engineer

BIG QUERY - Expert - Impératif SQL - Confirmé - Impératif OPTIMISATION BIG QUERY - Confirmé - Impératif GOOGLE CLOUD - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
Data Engineer Sénior (H/F)

Nous recherchons pour un client grand compte de la région un(e) Data Engineer Mise en place d'une gouvernance Big Query, de ses bonnes pratiques d'usage et optimisation des projets existants avec les équipes de développement. Pour cela vous devez: - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
Expert sécurité GCP
En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.
Développeur Java GCP - Lille
Contexte de la mission Client retail Mission longue Contexte du Poste : Dans le cadre de la refonte technique de l'orchestration de la Supply Chain, nous recherchons un Développeur Java GCP afin de renforcer notre équipe technique. Vous jouerez un rôle clé dans la modernisation de notre infrastructure et de nos systèmes en migrant et en optimisant nos solutions actuelles de traitement tariffaire vers des technologies basées sur Google Cloud Platform (GCP). Missions principales : Développement d'applications Java : Concevoir, développer et maintenir des orchestrations Java performantes, évolutives et sécurisées. Travailler sur des microservices Java pour garantir une architecture modulaire et flexible. Intégration avec Google Cloud Platform (GCP) : Mettre en œuvre des services GCP (Compute Engine, Kubernetes Engine, Cloud Functions, BigQuery, Pub/Sub, etc.) dans le cadre de la refonte. Utiliser notre CI/CD pour l'automatisation des déploiements et la gestion des ressources cloud. Optimiser l'infrastructure existante en tirant parti des outils et services GCP pour la scalabilité, la performance et la sécurité. Refonte technique de l'infrastructure : Participer à la refonte des applications existantes pour les adapter aux meilleures pratiques du cloud. Collaborer avec les architectes pour assurer la mise en place de solutions techniques adaptées aux besoins de l’entreprise. Collaboration avec les équipes interfonctionnelles : Travailler en étroite collaboration avec les équipes produit, DevOps et QA pour s'assurer de la bonne mise en œuvre des fonctionnalités et des exigences techniques. Participer aux revues de code et à l'amélioration continue des pratiques de développement. Assurance qualité et performances : Mettre en place des tests automatisés (unitaires, d'intégration) pour garantir la stabilité du code. Participer à l'optimisation des performances de l'application en collaboration avec l'équipe DevOps.
Product Owner DATA - CRM - RGPD - GCP - POWER BI

Maintien et l’amélioration de la plateforme : · Définir et veiller à l’implémentation du plan de marquage de la CDP · Définir et veiller à la collecte de la donnée froide · Rédiger les cahiers de recette et les réaliser · Veiller à la qualité de la donnée de la plateforme et la monitorer · Identifier les opportunités d’évolutions liées à la roadmap Mediarithmics · Identifier les opportunités d’évolutions liées aux UC La gestion du delivery et de la roadmap : · Identification et gestion des priorités · Suivi et gestion du backlog JIRA · Coordination avec toutes les parties prenantes liées au projet La collaboration et la coordination des équipes pluridisciplinaires en adhérence sur les projets (cadrage, communication, comité de pilotage, …) : · Equipe Data Expérience : Chefs de projet CDP, Chef de projet technique Data, PO Privacy · Equipe Data : PO UC Perso, PO Big Data, PO équipe proxy … · Equipe Produit : PO et Développeurs des Offres France Télévisions · Equipes transverses : Interlocuteurs techniques des équipes CRM, acquisition, Pub, SRC, … · Partenaires : Interlocuteurs Mediarithmics Documentation et communication · Création et mise à jour de la documentation (Confluence) sur l’outil CDP, son implémentation et son paramétrage · Participer à la communication des avancées des chantiers de la roadmap auprès de la Direction Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- formation product owner peut débloquer la situation ?il y a 4 heures
- Revente de matériel d'occasion : bonnes pratiques ?il y a 4 heures
- Quel TJM pour une mission longue ?il y a 7 heures
- Calcul des cotisations sociales (EI à l'IS)il y a un jour
- Travail ancien employeuril y a un jour
- Impossible de liquider mon EURL !11 avril 2025 23:07