Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Offre d'emploi
TECH MANAGER DATA
Bonjour pour le compte de notre client, nous recherchons Tech Manager Data.. Sous la responsabilité du Tech Lead DATA, le/la Tech Manager Data aura donc la charge De Encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) Créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) Piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) Animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) Informer et alerter les (deux) Leads DATA Participer aux activités et évènement transverses de l'équipe domaine, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc domaine connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Data Platform ». o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Mission freelance
Analytics Engineer Pricing
En quelques mots Cherry Pick est à la recherche d'un "Analytics Engineer Pricing" pour un client dans le secteur du commerce de détails Description🎯 Contexte & Objectifs Dans le cadre de l’initiative stratégique Pricing Excellence, l’entreprise déploie une approche globale de Revenue Growth Management (RGM) visant à définir un juste prix pour les consommateurs, en conciliant coûts, perception client et rentabilité. Le/la consultant.e rejoindra l’équipe dédiée au Pricing Excellence, composée d’experts en data, pricing et IA, pour industrialiser la couche “insights” et fournir des datasets fiables et robustes destinés aux dashboards, modèles IA et analyses avancées. 🛠️ Missions principales Automatiser et industrialiser les pipelines de données (dashboards, IA, data analysis). Construire et modéliser la semantic layer dédiée au pricing. Définir et optimiser la stack technique et les standards d’industrialisation. Maintenir, améliorer et adapter les datasets existants pour couvrir de nouveaux use cases. Garantir la qualité, robustesse et pertinence des données exposées. Contribuer activement à la communauté Analytics Engineers et diffuser les bonnes pratiques. ✅ Compétences requisesTechniques dbt – Expert Git – Expert Databricks – Avancé Apache Airflow – Confirmé CI/CD – Confirmé Méthodologies & Soft Skills Solide expérience en industrialisation de pipelines data. Bonne compréhension des enjeux DataOps / Analytics Engineering. Esprit collaboratif, communication claire, force de proposition. Rigueur et autonomie dans la gestion des livrables. Langues Anglais courant (environnement international).

Mission freelance
Tech Lead Data Snowflake DBT (H/F)
Nous recherchons pour l'un de nos clients un Tech Lead Data Snowflake DBT (H/F) . Le poste est placé sous la responsabilité du Tribe Tech Lead Data « DHS ». Le/la Tech Manager « PMS Data » aura en charge l’encadrement d’équipes, le pilotage de chantiers data et l’animation des relations avec les parties prenantes. Missions : Encadrer deux équipes data (suivi individuel, gestion des prestataires ESN, participation aux rituels) Créer un binôme solide avec l’homologue « Produit » déjà en place Piloter les chantiers de delivery produit et les initiatives d’amélioration (process, organisation, outils) Animer la relation avec les parties prenantes (métiers, équipes IT, centre de services off-shore) Informer et alerter les Tribes Leads Data Participer aux activités et événements transverses du pôle Engineering et Data Réduire les fichiers PMS manquants et améliorer les processus de rattrapage Augmenter la couverture et la qualité des revenus collectés, réduire les délais d’activation/correction Déployer de nouveaux connecteurs pour accroître la couverture des usages métiers et limiter la dépendance aux solutions legacy Revoir la stratégie, l’architecture et les capacités de la future plateforme de données Co-prioriser le backlog des équipes, planifier et suivre les roadmaps trimestrielles Diffuser les bonnes pratiques auprès des membres de l’équipe Maintenir une documentation claire et à jour pour faciliter l’intégration des nouveaux arrivants

Mission freelance
Chef de projet Data / BI
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Offre d'emploi
Data engineer
Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Data Engineer Expérimenté(e) en CDI pour intervenir sur un projet stratégique au sein de l’un de nos clients grands comptes, acteur majeur de la grande distribution. Ce que vous ferez : Intégré(e) aux équipes Data, vous interviendrez sur des projets à forte volumétrie et enjeux stratégiques autour de Google Cloud Platform : Conception et optimisation de pipelines de données avec BigQuery et DBT . Développement et automatisation des workflows via GitLab CI/CD et Docker Compose . Modélisation de données et mise en place de couches sémantiques avec Looker/LookML . Manipulation et valorisation de données en SQL avancé . Participation aux rituels agiles et collaboration avec des équipes pluridisciplinaires. Documentation, bonnes pratiques, et amélioration continue des processus data. Votre positionnement vous permettra d’apporter une véritable expertise technique tout en contribuant à la transformation digitale d’un acteur majeur du retail.

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
Expert Snowflake / DBT – Data Platform Architect
Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Mission freelance
Tech Lead Snowflake / DBT
Nous recherchons un Tech Lead Snowflake / DBT pour piloter les aspects techniques de la plateforme data en collaboration avec l’équipe Data Factory de notre client. Niveau d'anglais requis : courant Bonne compréhension des enjeux métier liés à la data Capacité à arbitrer et aligner les choix techniques avec les besoins fonctionnels Collaboration transverse avec les équipes CDP et Data Factory ... .... ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... ..

Mission freelance
Data Engineers – ServiceNow / Snowflake
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira
Offre d'emploi
Data Engineer
En tant que Data Engineer expert, vous intégrerez une équipe dynamique et serez un acteur clé dans la mise en place et l'évolution d'une plateforme Data performante. Vos missions principales incluront : La conception, le développement et la maintenance de pipelines de données robustes et scalables. L'expertise et l'utilisation avancée de DBT pour la transformation et la modélisation des données. La participation active à la construction et à l'optimisation de l'architecture Data Platform (orientée BigQuery, Snowflake, etc.). L'intégration et la gestion des données provenant de différentes sources. L'application des meilleures pratiques de Software Engineering dans le développement Data. La mise en place et l'amélioration continue de l'intégration et du déploiement continus (CI/CD) via des outils modernes comme GitAction et AZURE DEVOPS. La contribution à l'automatisation des processus. La collaboration étroite avec les équipes métiers et techniques, y compris une Product Owner anglophone.
Mission freelance
DATA ENGINEER DBT/FABRIC
DATA ENGINEER DBT / FABRIC 3/7 ans d’Exp Pour un client dans le domaine du Retail Le client recherche un Data Engineer dans le cadre de la mise en place d'un projet ambitieux autours de la DATA. le Data engineer devra avoir une culture du Software Engineering. Maitrise de DBT et Fabric Bonne maitrise de la CI/CD ( GitAction, Outils CI moderne ) Plateforme AZURE DEVOPS / Automatisation. Anglais conversationnel indispensable ( La PO est anglophone ) Lieu : 75 / Durée : 6 mois/ Dispo : ASAP / Remote 2 jours par semaine / Anglais indispensable

Mission freelance
Data Engineer DBT & MS Fabric
Je recherche un Data Engineer maitrisant DBT & MS Fabric dans le cadre d’un projet stratégique autour de la DATA. Missions principales : ➡️ Développement de pipelines via DBT et Microsoft Fabric ➡️ Intégration continue / déploiement via Azure DevOps, GitHub ➡️ Automatisation des workflows Data ➡️ Collaboration avec des équipes internationales ➡️ Garantir la qualité, la traçabilité et la performance des traitements de données ➡️ Intégrer les bonnes pratiques de Software Engineering dans les projets Data (tests, documentation, versioning, etc.) ➡️ Assurer un reporting régulier sur l’avancement des tâches
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.