Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
BI Senior / Snowflake
Consultant / & Nous recherchons un(e) Consultant BI Senior pour une mission stratégique au sein d’une équipe dynamique dans un environnement technique exigeant. ✅ Statut : ✅ Démarrage : ASAP ✅ Localisation : Paris Expertise en Talend (ou Matillion) et Snowflake. Maîtrise des bases de données (SQL, PostgreSQL). Solide capacité à comprendre et transposer les besoins métiers en solutions BI. - Développement et optimisation des pipelines de données avec Talend ou dans un environnement Snowflake. - Intégration et transformation des données pour répondre aux besoins stratégiques. - Collaboration avec les équipes métiers pour interpréter les besoins fonctionnels et techniques. - Documentation et support post-production pour assurer la pérennité des solutions.
Offre d'emploi
Data Engineer Snowflake / SSIS
💼 Data Engineer Passionné 🎯 pour un beau projet technique au sein d'une entreprise innovante. 🌟 Contexte : Rejoignez une entreprise innovante où vous serez au cœur de la gestion et optimisation des pipelines de données 📊, en garantissant leur qualité et leur intégrité. Vous travaillerez dans un environnement scientifique stimulant, avec un accent particulier sur les biotechnologies et des projets techniques de grande envergure. 🔎 Qualifications & Expérience requises : * 🎓 Master en informatique, data engineering ou équivalent. * 🏗️ Expérience préalable : ○ Minimum 3 ans en Data Engineering. ○ Solides compétences en SQL, ETL, et gestion de données à grande échelle. * 🧬 Bonus : Expertise dans les environnements scientifiques ou biotechnologiques appréciée. 🛠️ Compétences techniques : * Gestion des données : ○ ❄️ Snowflake (expertise dans la gestion de données et la création de pipelines). ○ 🔄 SSIS (Intégration des données et gestion des flux ETL). ○ 🗄️ SQL (requêtes complexes, optimisation des performances). * Pipeline & Data Engineering : ○ Conception, gestion et optimisation de pipelines de données, en garantissant leur qualité et leur intégrité. * Cloud & DevOps : ○ ☁️ Expérience avec AWS (environnement full-cloud pour la gestion des données). ○ 🔗 Familiarité avec les microservices et API RESTful. 💡 Profil recherché : * 🗣️ Langues : Niveau professionnel en anglais (indispensable pour réunions et reportings). * 🧠 Compétences clés : ○ Forte capacité à résoudre des problèmes techniques complexes. ○ Esprit analytique et goût pour les challenges. ○ Capacité à collaborer efficacement avec des équipes multidisciplinaires. 🚀 Conditions & avantages : * Contrat : CDI avec salaire compétitif selon expérience. * 🧑🔬 Environnement stimulant : Opportunité de travailler sur des projets innovants dans des domaines scientifiques. 💡 Pourquoi les rejoindre ? Intégrez une structure où la technologie, l'innovation et la collaboration sont au cœur des missions. Vous aurez l'opportunité de travailler sur des projets à forte valeur ajoutée dans un environnement flexible et moderne. 👉 Intéressé ? Envoyez-moi votre CV et vos disponibilités pour un échange rapide ! 💬
Mission freelance
Tech Lead AWS/Airflow et Snowflake
Fiche de Poste – Tech Lead / Développeur Contexte de la mission : Notre client recherche des profils expérimentés pour intervenir sur un projet stratégique. L’équipe sera responsable de la conception et du développement des plateformes permettant le calcul des indicateurs de performance. Ces plateformes utilisent des technologies avancées telles qu’AWS, Airflow et Snowflake. Missions principales : Tech Lead : Superviser et accompagner les équipes de développement dans la mise en œuvre des solutions techniques. Garantir la qualité des livrables et la bonne gestion des projets techniques. Développeur : Participer au développement des plateformes, en particulier dans la conception des solutions techniques pour le calcul des indicateurs et des rapports. Assurer la mise en place et l'optimisation des processus de calcul des indicateurs sur des environnements de données complexes. Développer des solutions évolutives et robustes sur les plateformes cloud, principalement AWS, et participer à l'intégration des différents outils et systèmes. Technologies et outils utilisés : AWS : Mise en place et gestion des ressources cloud (EC2, S3, Lambda, etc.) Airflow : Orchestration des workflows de données. Snowflake : Data warehouse pour la gestion des données et l’analyse. Profils recherchés : Tech Lead : Expérience significative en gestion d’équipes techniques et en développement sur des plateformes cloud. Compétences en gestion de projets et maîtrise des outils mentionnés ci-dessus. Développeur : Forte expérience en développement, notamment sur des environnements cloud. Bonne maîtrise de Python, SQL, ainsi que des outils comme Snowflake et Airflow. Compétences clés : Expertise en AWS, Airflow, et Snowflake. Conception et développement de solutions techniques. Maîtrise des processus de gestion de données et des calculs d’indicateurs. Capacité à travailler en équipe et à coordonner des projets techniques. Esprit d’analyse et compétences en résolution de problèmes complexes.
Offre d'emploi
Consultant Senior Snwoflake
Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture de notre Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe . Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un chantier de refonte des schémas de stockage de nos données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake Vous maîtrisez les technologies suivantes : -Snowflake -SQL avancé -RBAC -Terraform -Azure -Azure DevOps / JIRA /Confluence Vous êtes familier avec la culture DevOps et l’Agilité, le travail en équipe et la gestion de projet technique, dont la méthodologie est déjà établie, éprouvée et très largement adoptée. Bonne connaissance des Méthodes Agiles Qualités / compétences Bon relationnel, capacité d’adaptation, veille technologique, bonne communication orale et écrite
Offre d'emploi
Architecte - 4/7 ans expérience, double expertise SI et métier (assurance vie, retraite et épargne)
Accompagner la transformation digitale d’une organisation opérant dans le secteur de l’assurance, avec un accent particulier sur les enjeux financiers, règlementaires, et RH. Contexte et Environnement Projet : Le projet s’intègre dans le cadre d’une stratégie d’entreprise visant à moderniser les processus, aligner les systèmes d’information (SI) avec les exigences métiers, et assurer la conformité règlementaire. L’Architecte Projet intervient depuis les phases d’études d’opportunité jusqu’à la mise en production, en produisant des livrables critiques pour la gouvernance de l’architecture SI. Piloter les études et exigences d’architecture dans un environnement complexe. Garantir la cohérence et la durabilité des choix technologiques. Accompagner des projets critiques dans les domaines de la finance, de l’assurance, et des processus RH. L’environnement technologique est complexe et varié : Technologies utilisées : systèmes On-Premise, Cloud (AWS), solutions SaaS, progiciels, et développements internes. Parc applicatif : inclut des systèmes mainframe legacy, des solutions modernes et des référentiels d’architecture SI (VISTA/Lean IX, Data Galaxy). Contexte métier : assurance vie, épargne retraite, processus RH, et normes règlementaires telles que Solvency II. Défis spécifiques : Structuration et circulation des données dans un environnement hybride. Prise en compte de la vision 360 des clients et distributeurs, intégrant des dimensions décisionnelles et opérationnelles. Modernisation des systèmes legacy et migration vers le cloud. Objectifs et livrables Livrables Attendues : Diagnostic Express d’Architecture (DEX) - Évaluation rapide des besoins et préconisations., Présentation hebdomadaire en comité DSI. Dossier d’Architecture Fonctionnelle (DAF) - Analyse détaillée des états existants et futurs, impacts des scénarios, et trajectoires cibles. Les livrables couvrent plusieurs couches : Fonctionnelle : flux métiers, fonctions, principes directeurs. Macro-applicative : composants et socles applicatifs. Macro-solution : intégration de solutions complexes. Suivi et capitalisation : Les travaux sont intégrés dans des outils référentiels (VISTA, Data Galaxy) pour assurer leur traçabilité et réutilisation.
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Responsable BI
Mon client : Une société à taille humaine , dynamique et proche de ses clients. L'équipe est composée. Une structure où le travail d'équipe prime, avec des missions menées en binôme ou par groupes de 3-4 personnes. Missions : 🔄 Modélisation et transformation des données : Snowflake, Databricks, SAP HANA, etc. 🚀 Développement BI : Responsabilités étendues, comparable à un rôle de Product Owner. 📊 Gestion de projets : Suivi des coûts, délais et maintenance des systèmes. 🌎 Collaboration internationale : Réunions avec des équipes offshore et présentation aux décideurs. Compétences recherchées : 💻 Expertise : Snowflake, Databricks, SAP HANA, BW Y/BW 4, Business Objects 4X 📊 Outils BI : Power BI, QlikSense, SAP Analytics Cloud ⚙️ Gestion de projet : Autonomie et proactivité dans les missions clients. Pourquoi rejoindre mon client ? 🤝 Ambiance collaborative : Petite équipe soudée, faible turn-over, soirées "off" pour renforcer les liens. 📚 Formation continue : Certification et montée en compétences (SAP, tech et soft skills). 🚀 Perspectives d'évolution : Revue de performance et évolution rapide (2x/an), avec des opportunités à l'international. Rejoignez une entreprise où l'innovation, la collaboration et la croissance rapide sont au cœur de chaque projet ! 🌟
Mission freelance
Data Engineer
• Concevoir, créer et maintenir des pipelines de données évolutifs pour prendre en charge les processus d'intégration, de transformation et de chargement des données (ETL) à l'aide d'outils tels qu'Apache Airflow, Apache NiFi et Talend. • Développer et optimiser des modèles de données, des schémas et des bases de données pour garantir un stockage et une récupération efficaces des données à l'aide de technologies telles que Snowflake, Cassandra et MongoDB. • Collaborer avec des data scientists, des analystes et d'autres parties prenantes pour comprendre les exigences en matière de données et fournir des solutions de données de haute qualité. • Mettre en œuvre des processus de qualité et de validation des données à l'aide d'outils tels que Great Expectations et dbt pour garantir l'exactitude et la cohérence des données. • Surveiller et dépanner les pipelines et les systèmes de données à l'aide d'outils de surveillance tels que Prometheus et Grafana pour identifier et résoudre rapidement les problèmes. • Rester au courant des dernières tendances et technologies du secteur pour améliorer en permanence notre infrastructure de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.