Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Architect Snowflake

Fiche de Poste : Data Architect (Migration Hadoop vers Snowflake) Entité : Automotive / Finance Site : Paris et télétravail (60 % de télétravail possible) Date de démarrage : 1er avril 2025 Durée de la mission : Jusqu’à fin décembre 2025 Nationalité et Langues parlées : Français et Anglais obligatoires Type de projet : Migration de données de Hadoop vers Snowflake Mission : Rejoindre l’équipe Capgemini pour la migration de données d’Hadoop vers Snowflake. Vous serez responsable de l’architecture et de la mise en œuvre de la nouvelle solution de données, en veillant à la qualité des données et à la minimisation des interruptions durant la migration. Responsabilités : • Architecturer la migration des données depuis Hadoop vers Snowflake, en garantissant l’intégrité des données et en minimisant les interruptions. • Concevoir et implémenter un nouveau modèle de données dimensionnel dans Snowflake, en transformant le modèle 3NF existant dans Hadoop. • Utiliser DBT (Data Build Tool) pour les processus de transformation des données, assurant des transformations efficaces et précises. • Gérer et orchestrer les flux de travail de données avec Apache Airflow. • Collaborer avec les équipes interfonctionnelles pour comprendre les besoins en données et s’assurer que la nouvelle architecture répond aux exigences métier. • Développer et maintenir une documentation complète de l’architecture des données, du processus de migration et des modèles de données. • Assurer le respect des meilleures pratiques en matière de gouvernance des données, de sécurité et de conformité tout au long du processus de migration. • Fournir un leadership technique et un mentorat aux ingénieurs et analystes de données juniors.
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Data Engineer Snowflake / Sagemaker

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).
Data/Business Analyst Snowflake

Analyser et exploiter les données pour répondre aux besoins métiers. Assurer la qualité et la fiabilité des données via des tests et des validations. Collaborer avec les équipes métiers pour comprendre et formaliser les besoins. Rédiger des spécifications fonctionnelles et techniques. Mettre en place des dashboards et des reportings pour faciliter la prise de décision. Optimiser et automatiser les processus d’analyse et de contrôle des données. Participer à la gouvernance et à la structuration des données au sein de l’entreprise. Profil recherché :
Data Engineer

- Migrer les données existantes de Redshift vers Snowflake à l'aide de DBT et d'Airflow. - Collaborer avec des équipes transverses pour traduire les exigences métier en solutions techniques. - Concevoir et mettre en œuvre des pipelines de données, des processus ETL et des modèles de données. - Automatiser l'ingestion, la transformation et la validation des données grâce aux technologies Azure (Data Factory, Functions, Databricks). - Développer des procédures stockées, des vues et des fonctions SQL Server pour l'accès aux données et le reporting. - Optimiser les performances de l'entrepôt de données et identifier les axes d'amélioration. - Mettre en œuvre des politiques de gouvernance des données pour garantir l'exactitude, l'exhaustivité et la sécurité. - Documenter les processus et les bonnes pratiques d'ingénierie des données. - Se tenir informé des tendances du secteur et des technologies émergentes en matière d'ingénierie des données et de cloud computing.
Data Scientist en pré-embauche (H/F)

Nous recherchons un Data Scientist (H/F). Attention : pré-embauche client . Sous la responsabilité d'un Lead Data Science, vos principales tâches seront les suivantes : Mener des analyses exploratoires Piloter l’implémentation de cas d’usages ML et IA, depuis la phase d’idéation et de POC jusqu’au déploiement en production Restituer les analyses et modélisations (aux personnes techniques et métier) Collaborer avec les équipes métier pour identifier de nouveaux cas d’usage data-driven et pérenniser la qualité des cas d’usage existants Environnement technique : Python, VSCode, Git, Docker, Snowpark Cloud Azure Snowflake, DBT Microstrategy
Data Engineer Snowflake / SSIS - (H/F) - Paris - End User

Vos missions principales : Garantir la continuité des pipelines de données : Superviser et maintenir les flux existants (SSIS, SnowSQL, Python) afin de veiller à la qualité et à la disponibilité des données. Conduire la migration vers Snowflake : Achever le processus de migration des chaînes de traitement legacy (SQL Server) vers notre infrastructure moderne basée sur Snowflake. Collaborer avec les équipes métier : Participer activement aux ateliers avec les parties prenantes pour comprendre les besoins métiers, et proposer des solutions pragmatiques et durables. Développer de nouvelles intégrations de données : Concevoir et mettre en œuvre de nouveaux pipelines pour enrichir notre datalake avec des données provenant de sources variées (batch, API). Modéliser les données selon les besoins métier : Définir et implémenter les règles métier afin de créer des tables et des vues pertinentes, répondant aux besoins exprimés. Valider les données : Travailler avec les Product Owners (PO) et les équipes métier pour effectuer la recette des données et garantir leur conformité aux exigences. Déployer des solutions avancées : Concevoir et implémenter des algorithmes complexes selon les besoins métiers spécifiques (ex. création d'un référentiel client unique, personnalisation algorithmique, etc.).
Data Analyst

Je recrute un Data Analyst expérimenté pour nous aider dans la migration de notre système décisionnel vers le Cloud AWS (via Snowflake) et pour contribuer à des projets liés à l'intelligence artificielle générative (GenIA). Missions : Assurer le suivi et la maintenance de la migration vers le Cloud AWS déjà effectuée. Participer à des projets liés à l'intelligence artificielle générative. Préparer des données pour les équipes de Data Science et les métiers (dénormalisation, filtrage, agrégation, transcodification, etc.). Compétences Techniques : ETL Matillion sur base Redshift : Solide expérience avec l'outil ETL Matillion pour l'intégration et la transformation des données. Capacité à automatiser les processus ETL et à optimiser les performances. Dataiku (recettes SQL) sur base Snowflake : Maîtrise de l'outil Dataiku, en particulier pour la création de recettes SQL sur la base de données Snowflake. Expérience dans la gestion et la transformation de grandes volumétries de données. Python : Compétences avancées en programmation Python pour l'analyse des données et le développement de scripts automatisés. Connaissance des bibliothèques courantes (pandas, numpy, scikit-learn, etc.). SQL : Excellente maîtrise de SQL pour l'interrogation et la manipulation des bases de données. Capacité à écrire des requêtes complexes et à optimiser les performances des requêtes.
Expert ELT & Data & API

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API. • Connaissances techniques : - Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe) - Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python) - Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica) - Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark). - Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter). - Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform. Langue(s) : Anglais : Opérationnel (usage quotidien) ACTIVITES PRINCIPALES & LIVRABLES ▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority. ▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support. ▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. ▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana). ▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants. ▪ Accompagner et superviser les missions confiées aux sous-traitants. ▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.
Architecte / Conseil Data / IA

Livrables : Définir et formaliser la politique sur les solutions IA Gen afin de donner un cadre général pour le dé… Mise en conformité de la plateforme Data Science Enrichir l’offre CoIOT avec l’ajout de fonctionnalités génériques Étudier et déployer une nouvelle solution pour le socle de la plateforme APIness Étudier et déployer l’extension de la plateforme Data Science Rationaliser l’outillage Data Science en vue de la sortie de Dataiku au profit de la PDA Offrir une solution permettant de documenter les données/produits data et de faciliter leur accès et… Définir un scénario alternatif à la solution Aveva PI permettant les gains d’Opex et de limiter la dépendance Étudier une solution alternative au service MS SSAS en cours d’obsolescence Mettre à jour le cadre technologique sur les périmètres Data et Échanges Réaliser la conduite du changement relative à la PDA afin de démocratiser les usages des données d… Définir l’offre de services et la gouvernance du périmètre IA
Business Analyst - Collibra

Contexte Contexte de la mission : Le profil recherché interviendra dans le cadre de l'Operating Model au sein du département IS, plus précisément les équipes Data Governance. Notre client est à la recherche d’un BA Collibra qui travaillera en étroite collaboration avec le Lead Data Governance pour soutenir l'exécution du Programme, partager les bonnes pratiques et définir le modèle cible du data cataloging. MISSIONS : Mettre en place et gérer des politiques de gouvernance des données pour assurer leur qualité, leur conformité et leur sécurité, Créer et maintenir un catalogue de données centralisé pour faciliter l'accès et la compréhension des données au sein de l'organisation, Tracer l'origine et le parcours des données à travers les systèmes pour assurer leur intégrité et leur fiabilité, Travailler avec diverses équipes pour promouvoir une culture axée sur les données et assurer une utilisation cohérente des outils de gestion des données.
Consultant Looker
Mission / Freelance / France / Paris / Dataviz / Looker / Consultant Lawrence Harvey recherche actuellement un Consultant Looker pour rejoindre l’un de ses clients basés à Paris dans le cadre d’une mission longue. Localisation : Paris (2j/semaine en télétravail) Durée : Mission longue Disponibilité : ASAP Contrat : Full-time mais client ouvert au part-time Missions principales : Accompagner la mise en place et l’optimisation de Looker Modélisation et transformation des données Création de dashboards et reporting avancés Interaction avec les équipes métiers pour comprendre et traduire les besoins en solutions BI Amélioration des performances et des bonnes pratiques sur Looker Compétences requises : • Expertise sur Looker (LookML, dashboards, permissions) • Bonne connaissance des modélisations de données et SQL • Expérience avec des Data Warehouses (BigQuery, Snowflake, Redshift…) • Capacité à travailler en mode projet et à collaborer avec des équipes métiers et techniques Si cette opportunité vous intéresse, je vous laisse postuler à l'annonce ou bien me contacter directement (Christopher Delannoy).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché - Avril 2025il y a 12 minutes
- Premiers jours de prestation non facturésil y a 5 heures
- J’ai joué au Sims Entreprise 🎮... Et mon projet a plus d’étapes qu’un Univers Marvel 🎬. Vos avis d'experts svp pour éviter le plot twist fiscalo-juridique ⚖️💰?il y a 15 heures
- Fin de stage, à quoi m'attendre (salaires, postes)il y a 16 heures
- On ne m'a pas payé mes 2 dernières factures, aide recouvrementil y a 16 heures
- TJM & marge ESN – besoin de retours d’expérience pour mission en grand compteil y a 17 heures