Data Engineer Snowflake Lyon Anglais courant/sal

Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Lieu de mission : Lyon TT possible ? Non T0 : Asap Durée : 6 mois minimum Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake
Data Engineer Snowflake
Contexte : Nous recherchons un Data Engineer expérimenté et autonome, avec une forte appétence pour la qualité de ses livrables. Intégré au Data Office d'une société du secteur de l'édition de logiciel sur le périmètre Data Plateforme, vous participerez à l'extension de notre plateforme de données à l'ensemble du groupe, y compris les filiales, dans le cadre de notre démarche Data At Scale. Responsabilités : Sous la responsabilité de l'Engineering Manager Data Platform, vous contribuerez au développement et à l'optimisation de notre Data Platform. Vos principales missions incluront : Conception et implémentation des pipelines de données. Optimisation des traitements et flux de données (batch et streaming). Mise en place des bonnes pratiques de développement et d'exploitation. Assurer la fiabilité et la performance de la Data Platform. Missions : En collaboration avec l'Engineering Manager et l'équipe Data, vous serez en charge de : Architecture & Développement : Développer et maintenir des architectures Data évolutives et scalables. Mettre en place et optimiser les flux de données (ETL, ELT) en batch et streaming. Participer à l'industrialisation des traitements de données. Implémenter les bonnes pratiques DevOps & CI/CD (automatisation, tests, monitoring). Assurer la performance et la résilience de la plateforme. Collaboration & Support : Travailler en étroite collaboration avec les équipes Data Management, Tech, Product et Business. Participer aux échanges techniques et contribuer à l'amélioration continue des solutions. Documenter et partager les bonnes pratiques avec les autres membres de l’équipe. Optimisation & Innovation : Suivre et optimiser les KPIs de la Data Platform (performance, coût, monitoring). Contribuer à la veille technologique et à l’amélioration des architectures. Être force de proposition pour optimiser les traitements et infrastructures.
Data Engineer Snowflake / Sagemaker

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).
Data Engineer Snowflake

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Data Engineer - DBT / SNOWFLAKE

Concevoir, développer et maintenir des pipelines de données (ETL/ELT) robustes et scalables. Orchestrer les traitements de données avec DBT dans un environnement Snowflake . Automatiser les processus de déploiement via des pipelines CI/CD . Modéliser les données (modèle en étoile, data vault, etc.) pour répondre aux besoins business. Optimiser la performance des requêtes et la gestion des coûts Snowflake. Collaborer étroitement avec les équipes Data, Produit et Métiers pour garantir la fiabilité des livrables. Participer à la mise en place de bonnes pratiques de gouvernance et de qualité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Recupérer fichiers Excel des relevés banque de + de 6 mois ?il y a 10 heures
- Etat du marché - Avril 2025il y a un jour
- Étude sur les freins à l'entreprenariat mémoireil y a un jour
- Etude sur les freins à l'entreprenariatil y a un jour
- Offre ingénieur étude et conception électronique de puissanceil y a un jour
- Devenir Freelance toujours intéressant ou c'est mort ?il y a un jour