Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Snowflake
Nous recherchons un profil Data Engineer expert IICS avec une connaissance de Snowflake, pour une mission freelance (longue visibilité) Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation mission possible en full TT Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise informatica cloud Compétence Snowflake : Connaissance conaissance : Python Anglais courant obligatoire
Mission freelance
Consultant Snowflake (H/F)
Nous recherchons pour le compte de l'un de nos clients un développeur intégration Snowflake (H/F) dans le cadre d'un remplacement. Les missions : Conception et Développement des Pipelines de Données : Créer, optimiser et maintenir des workflows ETL dans Matillion pour ingérer, transformer et stocker les données dans Snowflake, en respectant les exigences de performance et de sécurité. Intégration de Sources de Données Multiples : Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake via Matillion, tout en assurant la qualité et la cohérence des données. Optimisation de la Performance : Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake pour réduire les coûts de stockage et de calcul, en analysant les logs et en ajustant les configurations Matillion et Snowflake. Surveillance et Débogage : Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Offre d'emploi
Data Engineer Snowflake / Databricks
Notre société recherche pour son client une personne passionnée par la Data et motivée par des missions stimulantes dans un environnement dynamique et humain. Acquisition et transformation des données pour des entrepôts de données. Participation au développement avec des responsabilités proches d'un Product Owner (PO). Gestion de projet : structuration, suivi des coûts et des délais. Maintenance des systèmes et gestion des coûts OPEX. Utilisation de technologies modernes : Hana, Snowflake, Databricks, etc. Bac +5 Expérience confirmée (3-5 ans) en modélisation avec des outils comme Snowflake, Databricks, SAP HANA, BW ou Business Object. Connaissance d'outils complémentaires : Power BI, Qliksense, SAP Analytics Cloud (appréciée). Français et anglais courants (pour collaborer avec une équipe offshore). Autonomie chez les clients, avec une aspiration à prendre des responsabilités en gestion de projet. Rémunération attractive : A partir de 45k€. Avantages inclus : intéressement, PEE, repas, transport, mutuelle, etc. Ambiance et collaboration : missions en équipe, soirées entre collègues, faible turn-over. Évolution et accompagnement : revue de performance biannuelle, formations techniques et certifiantes (SAP). 📍 Lieu : Paris 12e 👉 Postulez maintenant pour rejoindre une structure humaine et innovante !
Mission freelance
PC - Expert Snowflake - 314
Nous recherchons pour le compte de l'un de nos clients un dconsultant Snowflake (H/F). Les missions : Intégration de Sources de Données Multiples : Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake, tout en assurant la qualité et la cohérence des données. Optimisation de la Performance : Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake Surveillance et Débogage : Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Mission freelance
Data engineer (Snowflake obligatoire) H/F
Notre client dans le secteur Infrastructure, BTP et matériaux de construction recherche un data engineer expert de minimum 8 ans d'experience H/F Descriptif de la mission: Le client est un acteur majeur dans le secteur de la construction, vous rejoindrez une équipe de data engineering. Compétences recherchées : - Excellent niveau SQL - Missions précédentes ou certification Snowflake et sont en capacité de développer des procédures snowflake mais également de travailler sur des sujets de modélisations de données (Datamanagement, Datawarehouse). - Des connaissances en Talend sont aussi nécessaires, mais la priorité repose sur de fortes compétences en modélisation et SQL. -Connaissance d'ETL (en particulier Talend) Les Data Engineers vont être amenés à : Réaliser le cadrage technique Créer l’ensemble de la chaine d’ingestion de la donnée, aussi bien sur des sources tabulaires que sur du JSON provenant d’API d’IOT. Travailler à l’amélioration de notre processus de QOS / QOD mais également notre chaine CI/CD Il est important que le consultant soit dynamique et en capacité d’échanger avec des équipes métiers (dimension fonctionnelle de leurs travaux)
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Offre d'emploi
Data Engineer DBT, Snowflake et Power BI
En tant que Data Engineer, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des différentes couches de notre Data Platform. Vous serez chargé de structurer les données et de développer des pipelines de données efficaces et évolutifs pour répondre aux besoins métiers et garantir la qualité des données. Modélisation des couches basses de la Data Platform : Participer à la conception des couches de données, en particulier la modélisation DataVault pour les couches RawVault et BusinessVault. Modéliser les données en étoile pour le CoreDataModel (DataMart), facilitant ainsi l'analyse métier. Conception et optimisation des pipelines de données : Mettre en place des architectures de pipelines de données génériques, en s'appuyant sur des macros existantes ou personnalisées pour les différentes couches (Raw, Staging, RV, BV, CDM). Implémenter et maintenir les pipelines de données via l'outil dbt pour garantir la fluidité et la cohérence des flux entre les différentes couches de données. Tests automatisés et contrôle qualité : Concevoir des tests automatisés afin de garantir la cohérence des données, d'éviter les régressions et de valider la qualité des livrables à chaque étape du pipeline. Refonte de la Data Visualization : Reprendre et améliorer la DataViz existante en la migrant vers Power BI Premium. Réaliser des préconisations pour le mode de lecture des données dans le DataSet (POC). Créer et mettre en place une charte graphique cohérente pour les rapports. Concevoir des maquettes et des designs de rapports cibles afin d'améliorer la lisibilité et l'impact visuel. Travail en méthode Agile (Scrum/SAFe) : Participer activement aux cérémonies Agile : Daily Standups, Refinement, Planning Poker, Sprint Planning, Sprint Review et Rétrospectives. Contribuer à l’amélioration continue de l'équipe et des processus.
Mission freelance
Consultant SNOWFLAKE( EXPERT)
Nous recherchons pour le compte de l'un de nos clients un consultant Snowflake (H/F). Les missions : Intégration de Sources de Données Multiples : Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake, tout en assurant la qualité et la cohérence des données. Optimisation de la Performance : Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake Surveillance et Débogage : Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Mission freelance
Data Engineer expert IICS / Snowflake
En tant que Data Engineer Expert IICS et Snowflake, vous serez responsable de la conception, du développement et de l'optimisation des solutions de gestion de données en exploitant l'intégration cloud et les technologies modernes de data warehouse. Vous travaillerez en collaboration avec des équipes multidisciplinaires pour assurer une transformation efficace des données, leur intégration et leur exploitation à grande échelle. Concevoir et mettre en œuvre des pipelines de données en utilisant Informatica Intelligent Cloud Services (IICS) et Snowflake . Assurer l'intégration des données provenant de diverses sources vers Snowflake. Optimiser les processus ETL/ELT et garantir la performance des flux de données. Collaborer avec les équipes d’analystes et data scientists pour répondre aux besoins métiers. Maintenir une documentation technique à jour et participer aux bonnes pratiques de gouvernance des données. Assurer la qualité, la sécurité et la conformité des données.
Mission freelance
Data Manager Snowflake UML SQL Anglais
Pour l'un de nos clients grands comptes, nous recherchons un(e) Data Manager Snowflake UML SQL expérimenté(e) pour rejoindre une équipe dynamique et innovante. Veille à ce que les décisions des conseils des données soient conformes à la feuille de route de l'architecture globale et au paysage du système. avec la feuille de route de l'architecture globale et le paysage du système Gérer les réponses aux exigences des entreprises Fournir un modèle pour structurer les métadonnées Définir initialement les métadonnées et les liens pour les éléments sélectionnés Approuver les définitions et le lignage développés par les domaines Approuver les modifications apportées aux métadonnées Agréger les dictionnaires de données des domaines en un dictionnaire de données d'entreprise Gérer les nouvelles demandes de métadonnées Définir des normes pour les métadonnées et veiller à leur conformité Définir et réviser la taxonomie des données
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Offre d'emploi
Ingénieur Data SAP/Snowflake
Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Mission freelance
Expert IICS
Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire -- Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire
Mission freelance
Expert IICS
Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire -- Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire
Offre d'emploi
DevOps Bases de Données PostgreSQL ▸ Pneumatique (3 semaines de TT/mois)
Conception et mise en oeuvre des bases de données PostgreSQL Élaborer et mettre en place des environnements PostgreSQL dans différents contextes on-premise, cloud, IaaS, PaaS. Contribuer à la définition des standards d’architecture pour assurer la scalabilité, la résilience et la sécurité des bases. Participer à la migration de bases existantes vers PostgreSQL. Automatisation des processus Développer et maintenir des procédures automatisées de création, de déploiement et de gestion des bases de données à l’aide de Terraform et Ansible . Automatiser les tests de performance, les backups/restaurations, et les mises à jour. Intégrer les environnements PostgreSQL dans des pipelines CI/CD. Gestion des environnements multi-SGBD Assurer une supervision efficace des bases de données PostgreSQL ainsi que des bases secondaires telles que MongoDB , OracleDB , SQL Server et MySQL . Maintenir l’interopérabilité entre PostgreSQL et d’autres bases ou outils de données. Gestion des outils connexes Mettre en œuvre et administrer des solutions liées aux données comme DELPHIX (virtualisation des données) et Snowflake (entrepôt de données). Gérer les aspects réseaux, hyperviseurs, systèmes de stockage et OS en lien avec les bases de données. Optimiser les stratégies de sauvegarde et de restauration. Support et amélioration continue Diagnostiquer et résoudre les incidents liés aux bases de données ou à leur environnement. Apporter une expertise technique et des recommandations pour améliorer la performance, la sécurité et la fiabilité. Assurer une veille technologique pour identifier et intégrer les innovations pertinentes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.