Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Lille
DEV FULL STACK
Pour accompagner l'amélioration continue sur le Time to Market et rentabilité de ses produits, LMFR développent un outil digital permettant de visualiser la performance 360 d’un fournisseur, d’identifier les enjeux de négociation prioritaires et de positionner une cible de négociation par enjeu. Pour cela, ce nouvel outil devra mettre à disposition de l’utilisateur un dashboard intelligent permettant d’afficher, de trier et d’analyser un large spectre de données, fiables et personnalisables. Autonomie, curiosité et force de proposition sont les bienvenus! En tant que Dev Full stack, tu seras encadré par un Tech Lead. L'équipe est composé d'un Product Manager, un QA, un Lead Dev Back, un Data Scientist, un UX. Environnement technique : - Gisements de donnée depuis la data plateforme LMFR/ADEO ou applications maitres - Type de flux variées : API rest, ... - Back : GCP, Big query, cloud function, java springboot - Front : front web (Vue JS)
Développeur Backend

Nous sommes à la recherche d'un(e) : Développeur Back-end - Maîtrise de Node.js, TypeScript, ou framework NestJS. - Expérience confirmée avec Kafka (configuration avancée, production/consommation, gestion de topics et partitions). - Notions de BigQuery (ou expérience sur des bases cloud analytiques similaires). - Maîtrise de Kubernetes pour le déploiement de microservices. - Familiarité avec les outils d’infrastructure as code (Terraform), conteneurisation (Docker), CI/CD. - Conception d’API robustes et maintenables. - Culture clean code, tests, TDD, code review. - Capacité à travailler en mode produit, compréhension des enjeux fonctionnels (collecte & exposition de données).
Data Engineer Sénior (H/F)

Nous recherchons pour un client grand compte de la région un(e) Data Engineer Mise en place d'une gouvernance Big Query, de ses bonnes pratiques d'usage et optimisation des projets existants avec les équipes de développement. Pour cela vous devez: - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
developpeur back

Kafka - Confirmé - Impératif Kubernetes - Confirmé - Impératif Modélisation APIs - Confirmé - Impératif Exposition données BigQuery - Junior - Souhaitable Connaissances linguistiques Français Courant (Secondaire) Anglais Courant (Secondaire) Description détaillée En tant que développeur(euse) au sein de notre équipe transverse DATA, vous contribuerez au développement du produit digital clickstream, solution de tracking event-driven, destinée à capter et valoriser les données de navigation issues de l’ensemble de nos interfaces digitales (web & app). Vous évoluerez au cœur d’une équipe data transverse qui joue un rôle clé dans la structuration, la gouvernance et la distribution des données dans l’entreprise. Ce produit sera mis à disposition de l’ensemble de nos équipes produit, data et métier afin de leur permettre de mieux comprendre les parcours utilisateurs, mesurer la performance fonctionnelle, personnaliser l’expérience digitale et alimenter les cas d’usage analytiques ou d’IA.
Expert BigQuery – Lille (avec télétravail)

Nous recherchons un expert BigQuery pour mettre en place une gouvernance data solide, optimiser les projets existants et accompagner les équipes tech dans l’adoption des bonnes pratiques. Vous interviendrez sur l’architecture, la performance (quotas, slots, BI Engine…), l’optimisation des requêtes à fort volume, et la gestion des modèles de facturation. Vous serez également garant de la qualité, de la compréhension et de la diffusion des données au sein de l’entreprise. Votre rôle est central dans la structuration du cycle de vie des données et la collaboration avec le Chief Data Officer.
Data Engineer / Expert FinOps

Homme ou femme passionné(e), vous possédez une expérience significative en tant que Développeur Back/ Fullstack et souhaitez rejoindre une équipe motivée, performante et évolutive. Votre profil et vos missions Nous recherchons pour intervenir chez notre client retailer, un Expert BigQuery. En plus de mettre en place une gouvernance Big Query et les bonnes pratiques d'usage, il optimisera les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
Développeur JS/Kafka

En tant que développeur(euse) au sein de notre équipe transverse DATA, vous contribuerez au développement du produit digital, solution de tracking event-driven, destinée à capter et valoriser les données de navigation issues de l’ensemble de nos interfaces digitales (web & app). Ce produit sera mis à disposition de l’ensemble de nos équipes produit, data et métier afin de leur permettre de mieux comprendre les parcours utilisateurs, mesurer la performance fonctionnelle, personnaliser l’expérience digitale et alimenter les cas d’usage analytiques ou d’IA. Votre mission: Back-end solide: - Maîtrise de Node.js, TypeScript, ou framework NestJS. Architecture event-driven: - Expérience confirmée avec Kafka (configuration avancée, production/consommation, gestion de topics et partitions). Cloud & DataOps : - Notions de BigQuery (ou expérience sur des bases cloud analytiques similaires). - Maîtrise de Kubernetes pour le déploiement de microservices. - Familiarité avec les outils d’infrastructure as code (Terraform), conteneurisation (Docker), CI/CD. API & modélisation: - Conception d’API robustes et maintenables. Pratiques de qualité: - Culture clean code, tests, TDD, code review. Agilité & collaboration: - Capacité à travailler en mode produit, compréhension des enjeux fonctionnels (collecte & exposition de données). Culture d’équipe: - Feedback, peer programming, amélioration continue. Anglais professionnel, pour travailler en environnement international ou documenter proprement. Poste également ouvert aux profils anglophones
Business Analyst GCP
Bonjour, je recherche pour l'un de mes clients un(e) Business Analyst GCP . Skills : GCP - BigQuery - anglais Mission : -comprendre les besoins métiers et traduire ces besoins en requêtes analytiques pertinentes -concevoir et exécuter des requêtes SQL complexes dans BigQuery -construire et maintenir des dashboards -participer à la modélisation des données sur BigQuery -rédiger des documentations fonctionnelles et techniques Localisation : Lille / 2 jours de télétravail par semaine N'hésitez pas à revenir vers moi pour des informations complémentaires.
Data Analyst
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST. Skills : GCP - BigQuery Mission : -collecter, explorer et analyser de grands volumes de données stockés sur GCP -produire des rapports, dashboards et analyses -optimiser les requêtes SQL dans BigQuery pour garantir performance et fiabilité -contribuer à l’enrichissement des référentiels de données et à la gouvernance data Localisation : Lille (2 jours de télétravail par semaine) Démarrage : dès que possible Durée : longue visibilité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Developpeur Full Stack

Contexte de la mission Pour accompagner l'amélioration continue sur la rentabilité de ses produits, nous développons un outil digital permettant de visualiser la performance 360 d’un fournisseur, d’identifier les enjeux de négociation prioritaires et de positionner une cible de négociation par enjeu. Pour cela, ce nouvel outil devra mettre à disposition de l’utilisateur un dashboard intelligent permettant d’afficher, de trier et d’analyser un large spectre de données, fiables et personnalisables. Autonomie, curiosité et force de proposition sont les bienvenus! En tant que Dev Full stack, tu seras encadré par un Tech Lead. Environnement technique : - Gisements de donnée - Type de flux variées : API rest, ... - Back : GCP, Big query, cloud function, java springboot - Front : front web (Vue JS) Objectifs et livrables Compétences techniques Back : GCP, BQ, cloud function, java springboot - Confirmé Front : front web (Vue JS) - Confirmé Type de flux variées : API rest, ... - Confirmé Connaissances linguistiques Anglais Professionnel - projet inter Compétences: Niveau de compétence: GCP: Confirmé API REST: Confirmé BigQuery: Confirmé Cloud function: Confirmé Java: Confirmé VUE.JS : Confirmé Springboot: Confirmé Langues: Niveau de langue anglais: Courant
Data Product Leader F/H

Vous êtes passionné(e) par la data, l'innovation produit et la transformation digitale ? Vous souhaitez contribuer à la création de solutions à fort impact dans un secteur en pleine mutation ? Rejoignez un acteur majeur du Retail, basé dans la métropole lilloise, en tant que Data Product Leader ! En tant que Data Product Leader, vous serez le moteur de la stratégie produit data. Vous jouerez un rôle clé dans la valorisation des données à travers la définition, la conception et le pilotage de produits data répondant aux enjeux métier (marketing, supply chain, commerce, etc.). Vos responsabilités incluent : Définir la vision et la roadmap des produits data en lien avec les équipes métier et techniques Identifier les cas d’usage data à forte valeur ajoutée Coordonner les équipes data (data scientists, data engineers, analysts) et les stakeholders métier Prioriser les fonctionnalités et garantir la qualité des livrables Mesurer et piloter la performance des produits data via des KPIs clairs
Architecte java

Contexte de la mission : Dans le cadre d’un projet stratégique de gouvernance de la donnée, nous recherchons un(e) Architecte Data / Développeur Senior pour concevoir et maintenir l’architecture d’une plateforme globale de Data Quality. 🎯 Missions principales : Concevoir l’architecture technique de la plateforme Data Quality à l’échelle du groupe Développer et maintenir des composants en Java (traitements, APIs, orchestrations, etc.) Implémenter des flux Kafka et Kafka Streams pour la collecte et la transformation des données Participer à l’intégration de la solution dans l’écosystème GCP (BigQuery, etc.) Collaborer avec les équipes Data Engineering, Architecture, et les métiers Garantir la performance, la robustesse et la scalabilité de la solution
Gestionnaire d'applications (Expert GCP Big Query)

Nous sommes à la recherche pour notre client grand compte de la Métropole Lilloise, d'un profil plutôt run en capacité d'assurer le bon fonctionnement des applications et des solutions en production (gestion, support, ...) sur le périmètre DATA Direction Produit. Le profil évoluera dans un environnement SQL Server / GCP / QlikView / Power BI et la mission consistera à : - L'accompagnement au run des applications via le traîtementde de la maintenance corrective - La participation aux actions de maintenance évolutive dans les phases de conception technique, réalisation, qualification
Data Engineer / Data Analyst

La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
DevOps GCP H/F

Vos missions : Déployer et maintenir les environnements d'intégration, de recette et de production Automatiser les processus CI/CD (build, test, déploiement) Concevoir l'infrastructure as code (IaC) via Terraform Assurer la supervision des systèmes, le monitoring, la collecte de logs Documenter les procédures d'exploitation Intervenir en support N3 (analyse des incidents, correctifs, amélioration continue) Stack technique : GCP (Pub/Sub, Cloud Run, BigQuery) Terraform Linux, scripting (Bash, Python, Node.js) Git / GitLab SQL
DevOps GCP H/F

Vos missions : Déployer et maintenir les environnements d'intégration, de recette et de production Automatiser les processus CI/CD (build, test, déploiement) Concevoir l'infrastructure as code (IaC) via Terraform Assurer la supervision des systèmes, le monitoring, la collecte de logs Documenter les procédures d'exploitation Intervenir en support N3 (analyse des incidents, correctifs, amélioration continue) Stack technique : GCP (Pub/Sub, Cloud Run, BigQuery) Terraform Linux, scripting (Bash, Python, Node.js) Git / GitLab SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- URSSAF versement libératoireil y a 5 heures
- L'ami ne s'appelle pas molette , mais BASIC ... 60 ans déjà.il y a 6 heures
- Vive les 40 ans du Turbo-Pascal du feu éditeur Borland.il y a 7 heures
- SASU IR - Prelevement sociauxil y a 8 heures
- Reconversion professionnelle dans la cybersécuritéil y a 9 heures
- Timing retraiteil y a 10 heures