Trouvez votre prochaine offre dâemploi ou de mission freelance BigQuery
Astuce
Utilisez des virgules pour rechercher plusieurs termes en mĂȘme temps.
Exemple : sql, php correspond Ă sql OU php
Tech Lead GCP BigQuery Spark Scala API

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'Ă©quipe au sein de laquelle preste dĂ©jĂ des consultants de NEXORIS. RĂ©cupĂ©rer, traiter et mettre Ă disposition des agrĂ©gats de donnĂ©es via un datalake en utilisant des technologies et pratiques modernes de gestion de donnĂ©es avec des projets novateurs. TĂąches et activitĂ©s de la mission (non exhaustives) : - RĂ©cupĂ©rer les donnĂ©es issues de sources externes - Utiliser la puissance du datalake pour le traitement des donnĂ©es - Produire et mettre Ă disposition automatiquement des agrĂ©gats journaliers, hebdomadaires et mensuels - Mettre en Ćuvre la chaĂźne d'ingestion, validation, croisement et dĂ©versement des donnĂ©es dans le datalake - DĂ©velopper en respectant les rĂšgles dâarchitecture dĂ©finies - DĂ©velopper et documenter les user stories avec lâassistance du Product Owner - Produire les scripts de dĂ©ploiement - Prioriser les corrections des anomalies - Assister les Ă©quipes dâexploitation - Participer Ă la mise en Ćuvre de la chaĂźne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - DĂ©veloppement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - MĂ©thodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build
Data Engineer cloud GCP BigQuery F/H
Description de la Mission : Analyse et Conception Participer Ă l'analyse du besoin avec la supervision du binĂŽme PO/TechLead et Ă la conception du modĂšle de donnĂ©es permettant de rĂ©pondre aux enjeux. Utiliser l'analyse des donnĂ©es pour fournir des Ă©lĂ©ments significatifs et Ă©clairer la conception/mise en oeuvre des projets. Ătre force de proposition sur l'amĂ©lioration de notre stack Data. DĂ©veloppement et IntĂ©gration Concevoir, dĂ©velopper et maintenir les pipelines de donnĂ©es pour l'acquisition, la transformation, le stockage et la mise Ă disposition des donnĂ©es. Optimiser les performances des dĂ©veloppements pour assurer une disponibilitĂ© et une fiabilitĂ© maximale. Identifier et rĂ©soudre les goulots d'Ă©tranglement et les problĂšmes de performances dans les flux de donnĂ©es. QualitĂ©, Maintenance et Supervision Mettre en place des processus et des contrĂŽles pour garantir la qualitĂ© des donnĂ©es. Concevoir et mettre en oeuvre des systĂšmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou Ă©volutive. S'assurer de la cohĂ©rence des livrables avec les rĂšgles et bonnes pratiques dĂ©finies au sein de l'Ă©quipe. Documentation, Support, Pilotage RĂ©diger les documents associĂ©s au projet (SpĂ©cifications Techniques, Cahier de recette Technique, Document d'exploitation). RĂ©aliser la recette technique et participer Ă animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le dĂ©ploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de donnĂ©es : BigQuery, Teradata, SQL Server, IBM DB2.
Data Engineer (GCP/ Bigquery) F/H

Nous sommes Ă la recherche d'un profil Data Engineer pour participer aux opĂ©rations de build sur les environnements Big Data basĂ©es sur Google Cloud. Ses principales missions seront les suivantes : - Concevoir et dĂ©velopper les futures fonctionnalitĂ©s de la plateforme Data sous Google Cloud Platform. - ExpĂ©rience significative dans l'utilisation des systĂšmes cloud GCP et de ses services : big querry, stockage cloud google, fonction cloud google... - ExpĂ©rience avec les processus de transformation les donnĂ©es et une connaissance du langage Python et de lâordonnanceur Airflow - Experience souhaitĂ©e sur des projets DATA et leurs implĂ©mentations - Excellentes connaissances du SQL et des grands principes de modĂšle de donnĂ©es - CapacitĂ© d'analyse de spĂ©cifications fonctionnelles pour les traduire en conception technique. - Travailler en Ă©troite collaboration avec l'Ă©quipe actuelle de Data Engineer, Data Scientist et les Ă©quipes mĂ©tiers.
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de lâĂ©quipe Data Pilotage, composĂ©e dâun Product Owner et dâun ingĂ©nieur data. Votre mission portera sur lâĂ©volution, lâindustrialisation et le support de la plateforme Data4All , solution centrale dâaccĂšs aux donnĂ©es transverses. Vos principales responsabilitĂ©s : Construction et amĂ©lioration des pipelines de traitement : CrĂ©ation dâindicateurs, transformation des donnĂ©es, gestion de la volumĂ©trie et des coĂ»ts sur GCP ModĂ©lisation et exposition des donnĂ©es : DĂ©veloppement de modĂšles de donnĂ©es optimisĂ©s, intĂ©gration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intĂ©gration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Business analyst
Nous sommes Ă la recherche d'un business analyst confirmĂ© pour notre client final basĂ© Ă Lille. Les missions principales seront : Participer Ă lâĂ©tude et Ă la rĂ©daction des processus dâintĂ©gration de nouvelles donnĂ©es ou dâapplications. Accompagner les dĂ©veloppeurs pour assurer une bonne comprĂ©hension des enjeux. Tester les dĂ©veloppements rĂ©alisĂ©s. Assister les Ă©quipes business dans la comprĂ©hension du comportement de lâoutil. Analyser les problĂšmes identifiĂ©s. Les donnĂ©es sont accessibles via Google BigQuery, et des compĂ©tences en requĂȘtage SQL sont donc indispensables.
đ Mission : Lead Dev Front â Lille

Nous recherchons un Lead DĂ©veloppeur Frontend pour assurer la continuitĂ© et lâĂ©volution de nos projets en cours. Cette mission sâinscrit dans le cadre du remplacement dâun membre de notre Ă©quipe en mobilitĂ© interne. Vous interviendrez sur des sujets dâ accessibilitĂ© , de performance web et dâ interfaces utilisateur de haute qualitĂ© , avec une approche mobile-first . Vous collaborerez Ă©troitement avec les Ă©quipes design et backend pour garantir une intĂ©gration fluide et maintenir des standards de dĂ©veloppement Ă©levĂ©s.
Mission : DĂ©veloppeur Fullstack IA/ML â Lille

Nous recherchons un dĂ©veloppeur Fullstack avec une expertise en intelligence artificielle et apprentissage automatique pour renforcer notre Ă©quipe. La mission consiste Ă intĂ©grer des solutions IA et Machine Learning dans nos interfaces utilisateur, dĂ©velopper des fonctionnalitĂ©s avancĂ©es amĂ©liorant lâexpĂ©rience utilisateur et optimiser les performances de nos applications. Vous travaillerez sur une feuille de route produit ambitieuse nĂ©cessitant une forte capacitĂ© dâinnovation et de rĂ©solution de problĂšmes.
System Architect Data

Objecrif de la mission : Vous ĂȘtes en charge de la conception et de la mise en Ćuvre d'une partie du patrimoine d'assets Data & BI (basĂ©s sur la Data Platform sur BigQuery) de l'organisation avec un souci d'Ă©volutivitĂ© et de performance. Ces assets sont centrĂ©s sur les business domains de la Supply Chain et du DĂ©veloppement/Marketing Produit. Une connaissance des problĂ©matiques de ces domaines fonctionnels (lead time, prĂ©visions de vente, planification de la distribution, kpis associĂ©s, ...) est un facteur dĂ©terminant.
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une Ă©quipe technique travaillant sur un produit data clĂ© permettant la mise Ă disposition des donnĂ©es pour les dashboards internes. Ce projet sâappuie sur la Google Cloud Platform (GCP) et une stack moderne orientĂ©e DBT, Airflow, BigQuery et Terraform . Missions Concevoir, dĂ©velopper et maintenir les pipelines de donnĂ©es DĂ©velopper des modĂšles de donnĂ©es optimisĂ©s pour lâanalyse et le reporting Assurer la qualitĂ© et la fiabilitĂ© des indicateurs et mĂ©triques utilisĂ©s par les Ă©quipes mĂ©tier Auditer, cartographier et optimiser les donnĂ©es existantes pour une meilleure performance et gouvernance Collaborer avec les Ă©quipes techniques et fonctionnelles pour amĂ©liorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Un Lead Tech TALEND/BIGQUERY sur Colombes

ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes.
DATA ENGINEER - connaissances DBT obligatoire

Nous recherchons pour l'un de nos grands comptes, un Data Engineer. Vous trouverez ci-dessous le descriptif du poste : La prestation du data engineering consistera Ă participer Ă : La mise en place de pipelines de traitement de donnĂ©es Le dĂ©veloppement des modĂšles de donnĂ©es Lâextraction et lâexposition des donnĂ©es du Data Lake vers dâautres services Lâindustrialisation des projets sur la GCP La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec lâĂ©quipe Expertises requises pour la rĂ©alisation de la prestation : Au moins 1 an dâexpĂ©rience dans un environnement data CompĂ©tences solides en data : structures de donnĂ©es, code, architecture Connaissance de lâun des Cloud Provider Public : de prĂ©fĂ©rence GCP Connaissance de DBT obligatoire RĂ©fĂ©rences professionnelles sur des projets Big Data : de prĂ©fĂ©rence Pyspark, BigQuery et dbt CompĂ©tences en SQL et Python Expertises dans la mise en place de pipeline ETL / ELT Bonnes connaissances de Gitlab et Gitlab CI/CD Forte capacitĂ© Ă vulgariser et Ă communiquer sur des aspects purement techniques Pratique des mĂ©thodes Agile (Scrum, Kanban)
Data engineering senior

Contexte : AdossĂ©e Ă la plateforme data, la prestation se dĂ©roulera au sein de lâĂ©quipe Pilotage. LâĂ©quipe actuellement constituĂ©e dâun Product Owner et dâun Data ingĂ©nieur a la charge de la mise Ă disposition des donnĂ©es utiles Ă lâensemble des dashboards via son produit âData4Allâ, basĂ© sur la Google Cloud Platform. La stack technique de lâĂ©quipe est principalement constituĂ©e de SQL, Dbt et Airflow pour lâorchestration, Gitlab CI/CD pour le dĂ©ploiement et de Terraform / Terragrunt pour lâindustrialisation de lâinfrastructure (IaC). La stack inclut aussi dâautres services de la Google Cloud Platform. ActivitĂ© de cette Ă©quipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre Ă jour et faire Ă©voluer les indicateurs existants, en fonction des Ă©volutions des donnĂ©es - Traiter et corriger les anomalies - Concevoir les modĂšles de donnĂ©es adaptĂ©s aux besoins des utilisateurs dans un environnement big data (gestion de la volumĂ©trie et des coĂ»ts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les donnĂ©es existantes de Data4All et proposer une vision cible performante, gouvernĂ©e et adaptĂ©e aux besoins et contraintes 4- Mettre en place le contrĂŽle qualitĂ© sur les donnĂ©es Prestation attendue : En interaction avec les membres de lâĂ©quipe, la prestation consiste en : - La mise en place de pipelines de traitement de donnĂ©es - Le dĂ©veloppement des modĂšles de donnĂ©es - Lâextraction et lâexposition des donnĂ©es issues de la zone silver de la plateforme data vers Data4All - Lâindustrialisation des diffĂ©rents environnements de Data4All, en collaboration avec lâĂ©quipe dâops - La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec lâĂ©quipe - La participation active Ă la veille technique pour lâamĂ©lioration de la stack - LâamĂ©lioration des performances et la maĂźtrise des coĂ»ts sur les diffĂ©rents environnements Data4All, sur la GCP
Data Engineer senior

ActivitĂ© de cette Ă©quipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre Ă jour et faire Ă©voluer les indicateurs existants, en fonction des Ă©volutions des donnĂ©es - Traiter et corriger les anomalies - Concevoir les modĂšles de donnĂ©es adaptĂ©s aux besoins des utilisateurs dans un environnement big data (gestion de la volumĂ©trie et des coĂ»ts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les donnĂ©es existantes de Data4All et proposer une vision cible performante, gouvernĂ©e et adaptĂ©e aux besoins et contraintes 4- Mettre en place le contrĂŽle qualitĂ© sur les donnĂ©es Prestation attendue En interaction avec les membres de lâĂ©quipe, la prestation consiste en : - La mise en place de pipelines de traitement de donnĂ©es - Le dĂ©veloppement des modĂšles de donnĂ©es - Lâextraction et lâexposition des donnĂ©es issues de la zone silver de la plateforme data vers Data4All - Lâindustrialisation des diffĂ©rents environnements de Data4All, en collaboration avec lâĂ©quipe dâops - La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec lâĂ©quipe - La participation active Ă la veille technique pour lâamĂ©lioration de la stack - LâamĂ©lioration des performances et la maĂźtrise des coĂ»ts sur les diffĂ©rents environnements Data4All, sur la GCP
Ingénieur BigData GCP Hadoop Spark-KARMA MoveToCloud
En tant quâIngĂ©nieur(e) Move To Cloud, vous intĂ©grerez lâĂ©quipe KARMA Move To Cloud pour piloter la migration du systĂšme de Revenue Management KARMA, vers Google Cloud Platform (GCP). Vos missions incluront : Migration des workloads Hadoop /Spark vers GCP ( Dataproc, BigQuery, GCS ). DĂ©veloppement et optimisation de pipelines de donnĂ©es. Mise en Ćuvre dâinfrastructures avec Terraform et automatisation via Github Actions. Collaboration avec lâĂ©quipe pour assurer une transition fluide et performante..
Data Analyst

Je recherche un Data Analyst Freelance pour accompagner une entreprise en pleine croissance dans lâanalyse et lâoptimisation de ses donnĂ©es. La mission est Ă pourvoir dĂšs que possible avec une prĂ©sence requise de 4 jours par semaine sur site Ă Paris Intra-Muros . Exploiter et analyser les donnĂ©es pour fournir des insights actionnables sur la monĂ©tisation et lâengagement des utilisateurs. Utiliser Amplitude Analytics pour suivre le comportement des utilisateurs et identifier des leviers dâoptimisation. Manipuler SQL pour extraire, transformer et analyser des donnĂ©es volumineuses. Concevoir et maintenir des tableaux de bord interactifs avec Tableau pour faciliter la prise de dĂ©cision. Collaborer avec les Ă©quipes produit, marketing et data pour rĂ©pondre aux problĂ©matiques business. Assurer la qualitĂ© et la fiabilitĂ© des donnĂ©es en appliquant des bonnes pratiques analytiques.
DATA INGENIEUR

Au sein de la Direction Data dans les équipes Build Dataplatform, nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmÚtre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systÚmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données DBT - Connaissance du langage Python et de composer - Excellentes connaissances du SQL et des grands principes de modÚle de données - Compréhension des enjeux du Retail dans ses composantes principales (Customer , Product , Supply Chain, Commerce (Web&Store), Human Resources ) - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif
DĂ©posez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critÚres importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthĂšque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.