Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer expert IICS / Snowflake
En tant que Data Engineer Expert IICS et Snowflake, vous serez responsable de la conception, du développement et de l'optimisation des solutions de gestion de données en exploitant l'intégration cloud et les technologies modernes de data warehouse. Vous travaillerez en collaboration avec des équipes multidisciplinaires pour assurer une transformation efficace des données, leur intégration et leur exploitation à grande échelle. Concevoir et mettre en œuvre des pipelines de données en utilisant Informatica Intelligent Cloud Services (IICS) et Snowflake . Assurer l'intégration des données provenant de diverses sources vers Snowflake. Optimiser les processus ETL/ELT et garantir la performance des flux de données. Collaborer avec les équipes d’analystes et data scientists pour répondre aux besoins métiers. Maintenir une documentation technique à jour et participer aux bonnes pratiques de gouvernance des données. Assurer la qualité, la sécurité et la conformité des données.
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Mission freelance
Expert IICS
Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire -- Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Data Analyst 5-8 ans
Nous recherchons un ANALYTICS/WEB ENGINEER pour le compte d'un grand client des secteurs de médias en place parisienne. Vous aurez à les accompagner sur le produit d'Activation au sein de la DATECH, avec un fort penchant sur les problématiques publicitaires. Vous devrez : - Gérer la DMP (Mediarithmics) en mettant à jour les collectes dans celle-ci, assister sur la création de segments et vérifier la bonne diffusion de ces derniers - Prendre en main les contraintes de ciblage sur les différents environnements en collaboration avec les différentes entité de DATECH et PUB - Travailler sur la mise en place de partenariats datas avec des annonceurs / data providers - Aider à la mise en place de tests publicitaires avec les équipes L'environnement technique de l'équipe : Snowflake, Databricks, Airflow, Azure DevOps, Mediarithmics, Liveramp
Mission freelance
Expert Power BI
L'expert Power BI sera chargé de diriger les activités de BI, notamment l'administration, l'optimisation et la mise en place de bonnes pratiques sur Power BI. Il assurera la gestion des licences, l'attribution des rôles, la gestion des passerelles et l'audit des rapports pour recommander des optimisations. Il analysera la modélisation des données, les performances des rapports et rédigera des lignes directrices sur les meilleures pratiques. Une expertise en Power BI, Azure, Snowflake et SQL est requise.
Offre d'emploi
Data Engineer Talend à Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Mission freelance
DBA Senior
Maîtrise de la base de données PostgreSQL Maitrise des technologies d'IaC (Infrastructure as Code) telles qu'Ansible et Terraform Bonne connaissance des bases de données MongoDB,OracleDB,SQL Server et MySQL Connaissance des solutions DELPHIX et Snowflake Connaissance des hyperviseurs , réseaux , systèmes de stockage , OS et solutions de backup Localisation : Paris , et présence à Clermont-Ferrand minimum une semaine par mois est nécessaire. DevOps, PostgreSQL, MongoDB, Oracle, SQL Server, MySQL, Ansible, Terraform, DELPHIX, Snowflake, IaC, base de données, ingénieur systèmes, administrateur bases de données.
Mission freelance
Expert Powerplateform Microsoft
Description du poste : Notre environnement de travail vise à allier rigueur, ambiance décontractée dans les équipes ET méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, sera de travailler sur le centre d'expertise POWERBI : - Gérer l'administration des solutions - Améliorer le code des applications POWERBI et contribuer à l'amélioration des environements - Développer des applications POWERBI, ou utilisant des applications de la suite POWERPLATEFORM - Mettre en place et exécuter des tests - ëtre en lien avec les équipes Infrastructure - Améliorer l'observabilité du système Compétences et qualités attendues : - Vous possédez au moins 4 ans d'expérience en tant que expert POWERBI - Vous maîtrisez SQL, Python, PowerShell, Microsoft Azure, Snowflake, Rest API et aimez relever des défis. - La connaissance dans le développement d'autres outils de dashboardings est un plus : Thoughtspot, ... - Vous parlez couramment l'anglais. - Vous connaissez et maîtrisez les outils JIRA et les méthodes agiles. - Autonome, ouvert d'esprit, et doté d'excellentes compétences en communication, vous avez également une grande curiosité scientifique.
Offre d'emploi
Databricks Solution Architect
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.