Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 55 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en mĂȘme temps.

Exemple : sql, php correspond Ă  sql OU php

Suivant
1
Freelance

Tech Lead GCP BigQuery Spark Scala API

NEXORIS

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'Ă©quipe au sein de laquelle preste dĂ©jĂ  des consultants de NEXORIS. RĂ©cupĂ©rer, traiter et mettre Ă  disposition des agrĂ©gats de donnĂ©es via un datalake en utilisant des technologies et pratiques modernes de gestion de donnĂ©es avec des projets novateurs. TĂąches et activitĂ©s de la mission (non exhaustives) : - RĂ©cupĂ©rer les donnĂ©es issues de sources externes - Utiliser la puissance du datalake pour le traitement des donnĂ©es - Produire et mettre Ă  disposition automatiquement des agrĂ©gats journaliers, hebdomadaires et mensuels - Mettre en Ɠuvre la chaĂźne d'ingestion, validation, croisement et dĂ©versement des donnĂ©es dans le datalake - DĂ©velopper en respectant les rĂšgles d’architecture dĂ©finies - DĂ©velopper et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de dĂ©ploiement - Prioriser les corrections des anomalies - Assister les Ă©quipes d’exploitation - Participer Ă  la mise en Ɠuvre de la chaĂźne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - DĂ©veloppement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - MĂ©thodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build

DĂ©marrage
Durée 1 an
TJM 700 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer cloud GCP BigQuery F/H

Fnac Darty

Description de la Mission : Analyse et Conception Participer Ă  l'analyse du besoin avec la supervision du binĂŽme PO/TechLead et Ă  la conception du modĂšle de donnĂ©es permettant de rĂ©pondre aux enjeux. Utiliser l'analyse des donnĂ©es pour fournir des Ă©lĂ©ments significatifs et Ă©clairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amĂ©lioration de notre stack Data. DĂ©veloppement et IntĂ©gration Concevoir, dĂ©velopper et maintenir les pipelines de donnĂ©es pour l'acquisition, la transformation, le stockage et la mise Ă  disposition des donnĂ©es. Optimiser les performances des dĂ©veloppements pour assurer une disponibilitĂ© et une fiabilitĂ© maximale. Identifier et rĂ©soudre les goulots d'Ă©tranglement et les problĂšmes de performances dans les flux de donnĂ©es. QualitĂ©, Maintenance et Supervision Mettre en place des processus et des contrĂŽles pour garantir la qualitĂ© des donnĂ©es. Concevoir et mettre en oeuvre des systĂšmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou Ă©volutive. S'assurer de la cohĂ©rence des livrables avec les rĂšgles et bonnes pratiques dĂ©finies au sein de l'Ă©quipe. Documentation, Support, Pilotage RĂ©diger les documents associĂ©s au projet (SpĂ©cifications Techniques, Cahier de recette Technique, Document d'exploitation). RĂ©aliser la recette technique et participer Ă  animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le dĂ©ploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de donnĂ©es : BigQuery, Teradata, SQL Server, IBM DB2.

DĂ©marrage
Salaire 50k-70k â‚Źâ„an
Télétravail Télétravail partiel
Lieu Ivry-sur-Seine, Île-de-France
Freelance

Data Engineer (GCP/ Bigquery) F/H

Anywr freelance

Nous sommes Ă  la recherche d'un profil Data Engineer pour participer aux opĂ©rations de build sur les environnements Big Data basĂ©es sur Google Cloud. Ses principales missions seront les suivantes : - Concevoir et dĂ©velopper les futures fonctionnalitĂ©s de la plateforme Data sous Google Cloud Platform. - ExpĂ©rience significative dans l'utilisation des systĂšmes cloud GCP et de ses services : big querry, stockage cloud google, fonction cloud google... - ExpĂ©rience avec les processus de transformation les donnĂ©es et une connaissance du langage Python et de l’ordonnanceur Airflow - Experience souhaitĂ©e sur des projets DATA et leurs implĂ©mentations - Excellentes connaissances du SQL et des grands principes de modĂšle de donnĂ©es - CapacitĂ© d'analyse de spĂ©cifications fonctionnelles pour les traduire en conception technique. - Travailler en Ă©troite collaboration avec l'Ă©quipe actuelle de Data Engineer, Data Scientist et les Ă©quipes mĂ©tiers.

DĂ©marrage DĂšs que possible
Durée 3 ans
TJM 400-450 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composĂ©e d’un Product Owner et d’un ingĂ©nieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accĂšs aux donnĂ©es transverses. Vos principales responsabilitĂ©s : Construction et amĂ©lioration des pipelines de traitement : CrĂ©ation d’indicateurs, transformation des donnĂ©es, gestion de la volumĂ©trie et des coĂ»ts sur GCP ModĂ©lisation et exposition des donnĂ©es : DĂ©veloppement de modĂšles de donnĂ©es optimisĂ©s, intĂ©gration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intĂ©gration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

DĂ©marrage DĂšs que possible
Salaire 40k-60k â‚Źâ„an
Lieu Paris, Île-de-France
Offre premium
Freelance

Business analyst

CONSULT IT

Nous sommes Ă  la recherche d'un business analyst confirmĂ© pour notre client final basĂ© Ă  Lille. Les missions principales seront : Participer Ă  l’étude et Ă  la rĂ©daction des processus d’intĂ©gration de nouvelles donnĂ©es ou d’applications. Accompagner les dĂ©veloppeurs pour assurer une bonne comprĂ©hension des enjeux. Tester les dĂ©veloppements rĂ©alisĂ©s. Assister les Ă©quipes business dans la comprĂ©hension du comportement de l’outil. Analyser les problĂšmes identifiĂ©s. Les donnĂ©es sont accessibles via Google BigQuery, et des compĂ©tences en requĂȘtage SQL sont donc indispensables.

DĂ©marrage DĂšs que possible
Durée 24 mois
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Offre premium
Freelance

🚀 Mission : Lead Dev Front – Lille

NaxoTech

Nous recherchons un Lead DĂ©veloppeur Frontend pour assurer la continuitĂ© et l’évolution de nos projets en cours. Cette mission s’inscrit dans le cadre du remplacement d’un membre de notre Ă©quipe en mobilitĂ© interne. Vous interviendrez sur des sujets d’ accessibilitĂ© , de performance web et d’ interfaces utilisateur de haute qualitĂ© , avec une approche mobile-first . Vous collaborerez Ă©troitement avec les Ă©quipes design et backend pour garantir une intĂ©gration fluide et maintenir des standards de dĂ©veloppement Ă©levĂ©s.

DĂ©marrage DĂšs que possible
Durée 1 an
TJM 360-400 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Offre premium
Freelance

Mission : DĂ©veloppeur Fullstack IA/ML – Lille

NaxoTech

Nous recherchons un dĂ©veloppeur Fullstack avec une expertise en intelligence artificielle et apprentissage automatique pour renforcer notre Ă©quipe. La mission consiste Ă  intĂ©grer des solutions IA et Machine Learning dans nos interfaces utilisateur, dĂ©velopper des fonctionnalitĂ©s avancĂ©es amĂ©liorant l’expĂ©rience utilisateur et optimiser les performances de nos applications. Vous travaillerez sur une feuille de route produit ambitieuse nĂ©cessitant une forte capacitĂ© d’innovation et de rĂ©solution de problĂšmes.

DĂ©marrage DĂšs que possible
Durée 1 an
TJM 300-360 â‚Źâ„j
Lieu Lille, Hauts-de-France
Freelance

System Architect Data

Tenth Revolution Group

Objecrif de la mission : Vous ĂȘtes en charge de la conception et de la mise en Ɠuvre d'une partie du patrimoine d'assets Data & BI (basĂ©s sur la Data Platform sur BigQuery) de l'organisation avec un souci d'Ă©volutivitĂ© et de performance. Ces assets sont centrĂ©s sur les business domains de la Supply Chain et du DĂ©veloppement/Marketing Produit. Une connaissance des problĂ©matiques de ces domaines fonctionnels (lead time, prĂ©visions de vente, planification de la distribution, kpis associĂ©s, ...) est un facteur dĂ©terminant.

DĂ©marrage DĂšs que possible
Durée 12 mois
TJM 400-550 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Analytics Engineer / Data Engineer GCP | Télétravail Hybride

skiils

Nous recherchons un Data Engineer pour rejoindre une Ă©quipe technique travaillant sur un produit data clĂ© permettant la mise Ă  disposition des donnĂ©es pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientĂ©e DBT, Airflow, BigQuery et Terraform . Missions Concevoir, dĂ©velopper et maintenir les pipelines de donnĂ©es DĂ©velopper des modĂšles de donnĂ©es optimisĂ©s pour l’analyse et le reporting Assurer la qualitĂ© et la fiabilitĂ© des indicateurs et mĂ©triques utilisĂ©s par les Ă©quipes mĂ©tier Auditer, cartographier et optimiser les donnĂ©es existantes pour une meilleure performance et gouvernance Collaborer avec les Ă©quipes techniques et fonctionnelles pour amĂ©liorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique

DĂ©marrage DĂšs que possible
Durée 2 ans
Télétravail Télétravail partiel
Lieu France
Freelance

Un Lead Tech TALEND/BIGQUERY sur Colombes

Almatek

ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes. ALMATEK recherche pour l'un de ses clients, un Lead Tech TALEND/BIGQUERY sur Colombes.

DĂ©marrage DĂšs que possible
Durée 6 mois
TJM 400-550 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Colombes, Île-de-France
Freelance
CDI

DATA ENGINEER - connaissances DBT obligatoire

PRIMO CONSULTING

Nous recherchons pour l'un de nos grands comptes, un Data Engineer. Vous trouverez ci-dessous le descriptif du poste : La prestation du data engineering consistera Ă  participer Ă  : La mise en place de pipelines de traitement de donnĂ©es Le dĂ©veloppement des modĂšles de donnĂ©es L’extraction et l’exposition des donnĂ©es du Data Lake vers d’autres services L’industrialisation des projets sur la GCP La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec l’équipe Expertises requises pour la rĂ©alisation de la prestation : Au moins 1 an d’expĂ©rience dans un environnement data CompĂ©tences solides en data : structures de donnĂ©es, code, architecture Connaissance de l’un des Cloud Provider Public : de prĂ©fĂ©rence GCP Connaissance de DBT obligatoire RĂ©fĂ©rences professionnelles sur des projets Big Data : de prĂ©fĂ©rence Pyspark, BigQuery et dbt CompĂ©tences en SQL et Python Expertises dans la mise en place de pipeline ETL / ELT Bonnes connaissances de Gitlab et Gitlab CI/CD Forte capacitĂ© Ă  vulgariser et Ă  communiquer sur des aspects purement techniques Pratique des mĂ©thodes Agile (Scrum, Kanban)

DĂ©marrage
Durée 12 mois
Salaire 46k-60k â‚Źâ„an
TJM 450-560 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data engineering senior

KEONI CONSULTING

Contexte : AdossĂ©e Ă  la plateforme data, la prestation se dĂ©roulera au sein de l’équipe Pilotage. L’équipe actuellement constituĂ©e d’un Product Owner et d’un Data ingĂ©nieur a la charge de la mise Ă  disposition des donnĂ©es utiles Ă  l’ensemble des dashboards via son produit “Data4All”, basĂ© sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituĂ©e de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le dĂ©ploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. ActivitĂ© de cette Ă©quipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre Ă  jour et faire Ă©voluer les indicateurs existants, en fonction des Ă©volutions des donnĂ©es - Traiter et corriger les anomalies - Concevoir les modĂšles de donnĂ©es adaptĂ©s aux besoins des utilisateurs dans un environnement big data (gestion de la volumĂ©trie et des coĂ»ts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les donnĂ©es existantes de Data4All et proposer une vision cible performante, gouvernĂ©e et adaptĂ©e aux besoins et contraintes 4- Mettre en place le contrĂŽle qualitĂ© sur les donnĂ©es Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de donnĂ©es - Le dĂ©veloppement des modĂšles de donnĂ©es - L’extraction et l’exposition des donnĂ©es issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des diffĂ©rents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec l’équipe - La participation active Ă  la veille technique pour l’amĂ©lioration de la stack - L’amĂ©lioration des performances et la maĂźtrise des coĂ»ts sur les diffĂ©rents environnements Data4All, sur la GCP

DĂ©marrage DĂšs que possible
Durée 12 mois
TJM 100-600 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI
CDD

Data Engineer senior

QosmiQ Networks

ActivitĂ© de cette Ă©quipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre Ă  jour et faire Ă©voluer les indicateurs existants, en fonction des Ă©volutions des donnĂ©es - Traiter et corriger les anomalies - Concevoir les modĂšles de donnĂ©es adaptĂ©s aux besoins des utilisateurs dans un environnement big data (gestion de la volumĂ©trie et des coĂ»ts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les donnĂ©es existantes de Data4All et proposer une vision cible performante, gouvernĂ©e et adaptĂ©e aux besoins et contraintes 4- Mettre en place le contrĂŽle qualitĂ© sur les donnĂ©es Prestation attendue En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de donnĂ©es - Le dĂ©veloppement des modĂšles de donnĂ©es - L’extraction et l’exposition des donnĂ©es issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des diffĂ©rents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux diffĂ©rentes phases de cadrage, de planification et de rĂ©alisation des tĂąches avec l’équipe - La participation active Ă  la veille technique pour l’amĂ©lioration de la stack - L’amĂ©lioration des performances et la maĂźtrise des coĂ»ts sur les diffĂ©rents environnements Data4All, sur la GCP

DĂ©marrage
Durée 3 mois
Salaire 40k-70k â‚Źâ„an
TJM 400-600 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur BigData GCP Hadoop Spark-KARMA MoveToCloud

CONSULT IT

En tant qu’IngĂ©nieur(e) Move To Cloud, vous intĂ©grerez l’équipe KARMA Move To Cloud pour piloter la migration du systĂšme de Revenue Management KARMA, vers Google Cloud Platform (GCP). Vos missions incluront : Migration des workloads Hadoop /Spark vers GCP ( Dataproc, BigQuery, GCS ). DĂ©veloppement et optimisation de pipelines de donnĂ©es. Mise en Ɠuvre d’infrastructures avec Terraform et automatisation via Github Actions. Collaboration avec l’équipe pour assurer une transition fluide et performante..

DĂ©marrage DĂšs que possible
Durée 12 mois
TJM 550-600 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Valbonne, Provence-Alpes-CĂŽte d'Azur
Freelance

Data Analyst

Tenth Revolution Group

Je recherche un Data Analyst Freelance pour accompagner une entreprise en pleine croissance dans l’analyse et l’optimisation de ses donnĂ©es. La mission est Ă  pourvoir dĂšs que possible avec une prĂ©sence requise de 4 jours par semaine sur site Ă  Paris Intra-Muros . Exploiter et analyser les donnĂ©es pour fournir des insights actionnables sur la monĂ©tisation et l’engagement des utilisateurs. Utiliser Amplitude Analytics pour suivre le comportement des utilisateurs et identifier des leviers d’optimisation. Manipuler SQL pour extraire, transformer et analyser des donnĂ©es volumineuses. Concevoir et maintenir des tableaux de bord interactifs avec Tableau pour faciliter la prise de dĂ©cision. Collaborer avec les Ă©quipes produit, marketing et data pour rĂ©pondre aux problĂ©matiques business. Assurer la qualitĂ© et la fiabilitĂ© des donnĂ©es en appliquant des bonnes pratiques analytiques.

DĂ©marrage DĂšs que possible
Durée 12 mois
TJM 600-700 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

DATA INGENIEUR

HAYS France

Au sein de la Direction Data dans les équipes Build Dataplatform, nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmÚtre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systÚmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données DBT - Connaissance du langage Python et de composer - Excellentes connaissances du SQL et des grands principes de modÚle de données - Compréhension des enjeux du Retail dans ses composantes principales (Customer , Product , Supply Chain, Commerce (Web&Store), Human Resources ) - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif

DĂ©marrage DĂšs que possible
Durée 2 ans
TJM 100-430 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Suivant
1

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous