Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 33 résultats.
Freelance

Data Engineer Snowflake Lyon Anglais courant/sal

WorldWide People

Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Lieu de mission : Lyon TT possible ? Non T0 : Asap Durée : 6 mois minimum Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake

Démarrage Dès que possible
Durée 6 mois
TJM 380-440 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Un Data Engineer DBT ayant un anglais courant sur Lyon

Smarteo

Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Démarrage Dès que possible
Durée 6 mois
TJM 100-400 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Profil DBT Expérimenté + Snowflake

CS Group Solutions

Nous recherchons un Profil DBT Expérimenté + Snowflake Lieu de mission : Lyon TT possible ? Non Voici les éléments : Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Lieu de mission : Lyon TT possible ? Non T0 : Asap Durée : 6 mois minimum Voici les éléments : Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake

Démarrage Dès que possible
Durée 6 mois
TJM 380-440 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer Junior

STHREE SAS pour COMPUTER FUTURES

Bonjour, Je suis à la recherche d’un Data Engineer Junior : Tâches : · Concevoir, développer et maintenir des pipelines de données pour l'alimentation d'un Data Mesh. · Collaborer avec les équipes de développement et les parties prenantes pour comprendre les besoins en données et proposer des solutions adaptées. · Assurer la qualité, la fiabilité et la performance des pipelines de données. · Effectuer des tests et des validations des pipelines de données pour garantir leur bon fonctionnement. · Documenter les processus de développement et les architectures de données mises en place. · Participer aux revues de code et aux réunions techniques pour partager les meilleures pratiques et les retours d'expérience

Démarrage Dès que possible
Durée 6 mois
TJM 290-350 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Lead Data PO Finance

Tenth Revolution Group

Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner déployer la stratégie de croissance du groupe et les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur différents domaines Produits, Marketing, CRM, Digital, Sales, Merchandising, demand planning, stock, logistic performance, operations et Finance dans une logique de collaboration et d’amélioration de la performance. Pour accompagner la croissance organique du groupe, Lacoste est en train de se transformer, notamment au niveau des systèmes d’information. Un projet stratégique Data a été lancé pour développer les usages de la Data. Description de la mission En tant que Data Lead Product Owner Finance SAP, vos responsabilités seront les suivantes : Lancer coté Data la démarche d’amélioration de la performance financière de Lacoste Organiser la collecte des données nécessaires à la démarche sur la plateforme Data Animer les les développeurs des Datavisualisation, internes et externes Proposer et mettre en œuvre les produits Data Organiser la démarche d’élaboration de la roadmap, la priorisation et le delivery dans le respect du cadre budgétaire et des plannings Faire progresser l’organisation agile Concevoir et organiser la contribution des plateformes régionales, animer la démarche de recueil des attentes locales et le déploiement des features Avec l’équipe MasterData et Data Quality, garantir la fiabilité et la pertinence des données mises à disposition Assistance à la préparation d’un futur projet de transformation SAP Environnement Technique : Cloud Data Platform : Snowflake sur Microsoft Azure Langages : SQL , Python ETL : Matillion (Cloud) Dataiku Dataviz : QlikSense Profil Compétences techniques Diplôme d’ingénieur ou équivalent, avec au minimum 5 ans d’expérience en tant que PO dans des environnement Data. Maîtrise opérationnelle de l’anglais Maîtrise du SQL et des démarches d’analyse de données La connaissance des environnements SAP et de l’exploitation des données issues de SAP. Soft Skills Doté(e) d’une culture de la performance, et d’une solide connaissance des écosystèmes digital, vous avez le souci constant d’apporter la juste réponse aux équipes opérationnelles afin de les aider dans leurs processus d’amélioration continue. Vous êtes autonome, rigoureux et aimez synthétiser et échanger sur vos bonnes pratiques et prises de décision Le travail en équipe vous définit

Démarrage Dès que possible
Durée 3 mois
TJM 650-960 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer - DBT / SNOWFLAKE

KUBE Partners S.L. / Pixie Services

Concevoir, développer et maintenir des pipelines de données (ETL/ELT) robustes et scalables. Orchestrer les traitements de données avec DBT dans un environnement Snowflake . Automatiser les processus de déploiement via des pipelines CI/CD . Modéliser les données (modèle en étoile, data vault, etc.) pour répondre aux besoins business. Optimiser la performance des requêtes et la gestion des coûts Snowflake. Collaborer étroitement avec les équipes Data, Produit et Métiers pour garantir la fiabilité des livrables. Participer à la mise en place de bonnes pratiques de gouvernance et de qualité des données.

Démarrage Dès que possible
Durée 6 mois
TJM 400-520 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer - Expérimenté + Snowflake

EBMC

Dans le cadre d’un projet de modernisation des architectures data, un acteur majeur du secteur recherche un Data Engineer pour intervenir sur la création de pipelines de données destinés à alimenter une architecture de type Data Mesh . La mission consistera à concevoir, développer et maintenir des flux de données robustes, tout en respectant les bonnes pratiques en matière de gouvernance, de documentation et de qualité de données. L’environnement technique s’appuie fortement sur DBT pour la transformation des données, avec une orientation vers l’exploitation de plateformes cloud et de solutions analytiques modernes.

Démarrage Dès que possible
Durée 6 mois
TJM 100-460 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer Snowflake

Groupe Aptenia

Contexte : Nous recherchons un Data Engineer expérimenté et autonome, avec une forte appétence pour la qualité de ses livrables. Intégré au Data Office d'une société du secteur de l'édition de logiciel sur le périmètre Data Plateforme, vous participerez à l'extension de notre plateforme de données à l'ensemble du groupe, y compris les filiales, dans le cadre de notre démarche Data At Scale. Responsabilités : Sous la responsabilité de l'Engineering Manager Data Platform, vous contribuerez au développement et à l'optimisation de notre Data Platform. Vos principales missions incluront : Conception et implémentation des pipelines de données. Optimisation des traitements et flux de données (batch et streaming). Mise en place des bonnes pratiques de développement et d'exploitation. Assurer la fiabilité et la performance de la Data Platform. Missions : En collaboration avec l'Engineering Manager et l'équipe Data, vous serez en charge de : Architecture & Développement : Développer et maintenir des architectures Data évolutives et scalables. Mettre en place et optimiser les flux de données (ETL, ELT) en batch et streaming. Participer à l'industrialisation des traitements de données. Implémenter les bonnes pratiques DevOps & CI/CD (automatisation, tests, monitoring). Assurer la performance et la résilience de la plateforme. Collaboration & Support : Travailler en étroite collaboration avec les équipes Data Management, Tech, Product et Business. Participer aux échanges techniques et contribuer à l'amélioration continue des solutions. Documenter et partager les bonnes pratiques avec les autres membres de l’équipe. Optimisation & Innovation : Suivre et optimiser les KPIs de la Data Platform (performance, coût, monitoring). Contribuer à la veille technologique et à l’amélioration des architectures. Être force de proposition pour optimiser les traitements et infrastructures.

Démarrage Dès que possible
Durée 6 mois
TJM 550-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Tech Lead Data Engineer Azure

Groupe Aptenia

Nous recherchons un Tech Lead Data Engineer pour diriger notre équipe et assurer la mise en œuvre de solutions robustes et évolutives dans un environnement technique basé sur Python, SQL, Databricks, PySpark, DBT, Dremio & Azure. Leadership Technique : Diriger une équipe de data engineers, en fournissant une expertise technique et en assurant la qualité des solutions développées. Architecture et Conception : Concevoir et mettre en œuvre des architectures de données évolutives et sécurisées, en utilisant des technologies telles que Snowflake, Databricks, et Azure. Développement et Optimisation : Développer et optimiser des pipelines de données ETL/ELT, en veillant à l'efficacité et à la performance des processus de traitement des données. Collaboration : Travailler en étroite collaboration avec les équipes de développement, les data scientists, et les parties prenantes pour comprendre les besoins métiers et traduire ces besoins en solutions techniques. Gestion de Projet : Gérer des projets de bout en bout, de la conception à la mise en production, en utilisant des méthodologies Agile. Sécurité et Conformité : Assurer la conformité des solutions avec les normes de sécurité et les réglementations en vigueur. Formation et Mentorat : Former et encadrer les membres de l'équipe, favoriser le développement des compétences et encourager l'innovation. Veille Technologique : Rester à jour avec les dernières tendances et innovations dans le domaine des technologies de données, et proposer des améliorations continues aux solutions existantes. Visualisation et Monitoring : Utiliser des outils comme Grafana et Streamlit pour créer des tableaux de bord interactifs et surveiller les performances des systèmes de données.

Démarrage Dès que possible
Durée 3 ans
TJM 600-700 €⁄j
Télétravail Télétravail partiel
Lieu Clermont-Ferrand, Auvergne-Rhône-Alpes
Freelance

Data Engineer DBT

SQUARE ONE

Pour un de nos client Lyonnais, nous recherchons un Data Engineer, expérimenté en Data Build Tool. Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données.

Démarrage Dès que possible
Durée 6 mois
TJM 400 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Ingénieur Data - Alteryx

AGH CONSULTING

Mission principale du service : Le service IT garantit la continuité des services informatiques fournis aux utilisateurs et anticipe les changements ainsi que leurs impacts métiers sur le système d'information. Il intervient à la fois sur les dimensions infrastructures/matériel et logiciels métiers/supports. Il est également garant de la sécurité du système d'information et pilote la mise en œuvre du schéma directeur du groupe, en France comme à l’international. Composition du service : 4 collaborateurs rattachés au Responsable IT : Chef de projet IT Développeur Expert SAP Ingénieur Data Positionnement du poste : Rattachement hiérarchique direct au Responsable IT Relations internes : Étroite collaboration avec les équipes Data Analyst et AMOA SI Échanges ponctuels avec l’IT Groupe Relations externes : Interactions avec des consultants IT impliqués dans la mise en œuvre de solutions exploitant les données de l’entreprise MISSIONS PRINCIPALES Le/la Data Engineer est responsable de la collecte, de la transformation et de la mise à disposition des données au sein de l’entreprise. Il/elle industrialise les traitements sur les données (tableaux de bord, intégration de modèles statistiques...) en lien avec les équipes métiers et analytiques. Activités clés : Construction et maintenance d’un Data Lake sous Snowflake Gestion des accès et droits aux données Collecte, transformation et intégration de données issues de sources hétérogènes via Alteryx Mise en place de contrôles de qualité et routines de cohérence des données Travail en binôme avec l’ingénieur data déjà en poste COMPÉTENCES REQUISES Savoirs (Connaissances) Bonne compréhension des modèles de données Capacité à concevoir des architectures data efficaces Connaissances solides en data science Savoir-faire (Compétences techniques) Maîtrise de Snowflake Maîtrise d’Alteryx (ou autre ETL équivalent) Compétence en datavisualisation : Power BI, Excel, ou autre outil de visualisation Savoir-être (Soft skills) Rigueur et autonomie Esprit d’équipe et collaboration fluide en binôme Écoute active des besoins métiers et force de proposition dans les solutions apportées

Démarrage Dès que possible
Lieu Issy-les-Moulineaux, Île-de-France
Freelance

Chef de Projet - PMO SNOWFLAKE

KEONI CONSULTING

Contexte : Nous entamons la mise en œuvre de notre nouvelle solution de datawarehouse sur Snowflake. Ce projet stratégique vise à : Améliorer les performances, la scalabilité et la flexibilité de nos solutions de gestion de données. Faciliter et accélérer notre stratégie de Data sharing. Faire évoluer notre système de pilotage du Groupe et ses ramifications. Pour mener à bien ce projet, nous sommes à la recherche d’un profil Chef de Projet/ PMO expérimenté pour coordonner les efforts et assurer la réussite du projet. MISSIONS : Gestion de projet : Planification, suivi et contrôle des étapes du projet, y compris la définition des objectifs, des livrables, et des délais. Coordination des parties prenantes : Interface entre les différentes équipes et les utilisateurs finaux pour garantir une communication fluide et une collaboration efficace. Gestion des risques : Identification, évaluation et gestion des risques associés au projet, avec mise en place de plans d’actions correctifs. Comitologie / reporting : Élaboration de rapports réguliers sur l’avancement du projet, les performances et les éventuels écarts par rapport aux objectifs. Documentation : organiser la production et maintenance de la documentation projet, y compris les spécifications techniques, les plans de test, …

Démarrage Dès que possible
Durée 12 mois
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

Expert Talend - Part TIME ou Full TIME

ABSIS CONSEIL

Nous recherchons un Expert Talend. Vous avez des expérience approfondie dans la gestion et l'automatisation des flux de données avec Talend, ainsi qu'une capacité à travailler dans un environnement CI/CD. Vous maitrisez LeanIX. Missions: Gestion des flux Talend; assurer l'intégration des développements dans la chaîne CI/CD Alimentation de Vista (LeanIX) Consolidation des informations : vérifier et mettre en visibilité les incohérences des données pour améliorer le reporting Travailler en collboration avec les équipes en place Mission en temps partiel (1 à 2 jours par semaine) jusqu'à la fin de cette année dans un premier temps (60 jours d'intervention minimum) ou possibilité d'effectuer la mission Full Time Déplacements potentiels ponctuels à 1h20 de Paris en train.

Démarrage
Durée 7 mois
Salaire 60k-65k €⁄an
TJM 550-600 €⁄j
Télétravail Télétravail partiel
Lieu La Défense, Île-de-France
Freelance

Data engineer (expert DBT) - Lyon - ASAP & Freelance only

Montreal Associates

📌 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗙𝗿𝗲𝗲𝗹𝗮𝗻𝗰𝗲 – 𝗗𝗮𝘁𝗮 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿 (𝗘𝘅𝗽𝗲𝗿𝘁 𝘀𝘂𝗿 𝗗𝗕𝗧) - 𝗟𝘆𝗼𝗻 - 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 📌 📅 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗔𝗦𝗔𝗣 - 𝟲 𝗺𝗼𝗶𝘀 𝗿𝗲𝗻𝗼𝘂𝘃𝗲𝗹𝗮𝗯𝗹𝗲𝘀 - 𝗣𝗿𝗼𝗷𝗲𝘁 𝗹𝗼𝗻𝗴 𝘁𝗲𝗿𝗺𝗲. ❗ 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 💰 𝗧𝗝𝗠 : 𝗘𝗻𝘁𝗿𝗲 𝟰𝟬𝟬 𝗲𝘁 𝟰𝟳𝟬€ 𝗛𝗧, 𝘀𝗲𝗹𝗼𝗻 𝗽𝗿𝗼𝗳𝗶𝗹. 🎯 𝗖𝗼𝗻𝘁𝗲𝘅𝘁𝗲 𝗱𝗲 𝗹𝗮 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 Nous recherchons un Data Engineer expérimenté sur DBT pour intervenir sur un projet de mise en place de pipelines de données dans un environnement Data Mesh. Vous rejoindrez une équipe data engagée sur un projet structurant pour un client pur Tech. 🧩 𝗩𝗼𝘀 𝗺𝗶𝘀𝘀𝗶𝗼𝗻𝘀 𝗽𝗿𝗶𝗻𝗰𝗶𝗽𝗮𝗹𝗲𝘀 Conception et développement de pipelines de données robustes et scalables Contribution à l’alimentation d’une architecture Data Mesh Collaboration étroite avec les équipes data & métiers Participation à la définition des bonnes pratiques et à la documentation technique On en parle ? N'hésitez pas à candidater ! #DataEngineer #DBT #DataMesh #Snowflake #ETL

Démarrage Dès que possible
Durée 6 mois
TJM 400-470 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

Data Engineer Snowflake / Sagemaker

VISIAN

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).

Démarrage Dès que possible
Durée 1 an
Salaire 40k-55k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Engineer Snowflake

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-75k €⁄an
TJM 400-650 €⁄j
Télétravail Télétravail partiel
Lieu La Défense, Île-de-France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous