Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer Snowflake

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Senior Data Engineer Snowflake

Contexte de la mission En tant que Data Engineer, vous jouerez un rôle important dans la construction et le déploiement de notre Data Warehouse (DWH) et DataMarts, qui font partie intégrante de la mise en œuvre réussie de projets financiers, de notre outil EPM Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes inter fonctionnelles afin d'assurer l'intégration et la transformation transparentes des données. Objectifs et livrables Responsabilités : Concevoir, construire et maintenir des Data Warehouse et DataMarts évolutifs basés sur des données financières. Vous êtes en charge de l'élaboration et de l'optimisation des requêtes SQL complexes et des procédures stockées dans Snowflake Vous travaillez avec des données SAP, vous comprenez les structures des tables et vous assurez un mappage et une transformation des données exacts. Utiliser Azure Data Factory pour la construction des données et l'orchestration du pipeline. Collaborer avec les équipes DevOps pour mettre en œuvre des pipelines CI/CD à l'aide d'Azure DevOps. Assurer la qualité et l'intégrité des données tout au long du processus ELT.
Data Engineer Snowflake
Dans le cadre du remplacement temporaire d’un Data Engineer partant en congé paternité, nous recherchons un consultant pour une mission full remote au sein d’une entreprise spécialisée en Data Science et Intelligence Artificielle. Le consultant interviendra sur la gestion et l’optimisation du Data Warehouse , en assurant le support quotidien et le suivi de la Data Quality . Ses principales missions incluront : La gestion et le monitoring des données dans Snowflake, L’exécution des tâches de Daily Support et de Daily Reporting , Le contrôle de la qualité des données et la résolution des anomalies, L’amélioration continue des processus liés à la gestion des données, La collaboration avec les équipes basées aux États-Unis, dans un environnement 100% anglophone.
POT8224-Un Data Engineer Snowflake AWS sur le 92

Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92 Almatek recherche pour l'un de ses clients, un Expert Snowflake Aws sur le 92
Data Engineer Snowflake / SSIS - (H/F) - Paris - End User

Vos missions principales : Garantir la continuité des pipelines de données : Superviser et maintenir les flux existants (SSIS, SnowSQL, Python) afin de veiller à la qualité et à la disponibilité des données. Conduire la migration vers Snowflake : Achever le processus de migration des chaînes de traitement legacy (SQL Server) vers notre infrastructure moderne basée sur Snowflake. Collaborer avec les équipes métier : Participer activement aux ateliers avec les parties prenantes pour comprendre les besoins métiers, et proposer des solutions pragmatiques et durables. Développer de nouvelles intégrations de données : Concevoir et mettre en œuvre de nouveaux pipelines pour enrichir notre datalake avec des données provenant de sources variées (batch, API). Modéliser les données selon les besoins métier : Définir et implémenter les règles métier afin de créer des tables et des vues pertinentes, répondant aux besoins exprimés. Valider les données : Travailler avec les Product Owners (PO) et les équipes métier pour effectuer la recette des données et garantir leur conformité aux exigences. Déployer des solutions avancées : Concevoir et implémenter des algorithmes complexes selon les besoins métiers spécifiques (ex. création d'un référentiel client unique, personnalisation algorithmique, etc.).
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Data Engineer Snowflack

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.
Senior SnowFlake Data Engineer

En tant qu'ingénieur de données, vous jouerez un rôle essentiel dans la construction et le déploiement de notre Data Warehouse (DWH) et de nos DataMarts, qui font partie intégrante de la mise en œuvre réussie du projet financier, de notre outil EPM appelé Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes interfonctionnelles pour assurer une intégration et une transformation transparentes des données. • Résolution de problèmes : solides compétences analytiques pour dépanner et résoudre des problèmes de données complexes. • Communication et collaboration : capacité à travailler en étroite collaboration avec les équipes financières, informatiques et DevOps pour aligner les solutions techniques sur les besoins de l'entreprise. • Méthodologies Agile : Expérience de travail dans un environnement Agile/Scrum, gestion de la planification de sprint, affinement du backlog et livraison itérative.
Data Science - Machine Learning Engineer

Les tâches sont: - Analyse et interprétation des ensembles de données (structurées et non structurées) sur les produits et services et l’environnement de travail des collaborateurs BNP pour identification des motifs et des tendances. - Développement et mise en œuvre des modèles de machine learning et des LLM pour détéction, prédictio et classification des données. L’objectif principale étant du datamining sur les tickets d'incidents des utilisateurs. - Construction et maintient des pipelines de machine learning pour les modèles d'IA/ML dans des environnements de production. - Collaboration avec les ingénieurs logiciels et les ingénieurs de données pour intégrer les modèles d'IA dans des applications évolutives. - Analyse et interprétation des résultats des modèles pour affination des algorithmes et amélioration des performances
Consultant Anonymisation des données (IBM InfoSphere Optim, Informatica Dynamic Data Masking)

Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Expériences avec les outils IBM InfoSphere Optim, Informatica Dynamic Data Masking ou Talend Data Masking Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.
Data Engineer – Big Data & Cloud (F/H)

📑 CDI (36 - 40K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / semaine - 📍 Toulouse - 🛠 Expérience de 2/3 ans minimum Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables.
Architecte Data

Évaluer les besoins et usages des données au sein des différents projets. Décrire le cycle de vie des données, de leur collecte à leur transformation, leur distribution et leur consommation (High Level Design). Veiller au respect de la réglementation en matière de collecte et d’exploitation des données (RGPD) ainsi qu’aux exigences internes de l’organisation. Mettre en place des outils facilitant l’utilisation et l’exploitation des données. Surveiller la structure des bases de données et proposer des évolutions ou corrections adaptées. Collaborer avec les équipes IT et les responsables métiers pour assurer une intégration fluide des données. Concevoir l’architecture des données et structurer les modèles en fonction des exigences métier. Vérifier les modèles logiques et physiques afin d’optimiser les flux de données.
Azure Data Architect

Data Cloud Architect , freelance, contrat de 24 mois, IDF Attractive opportunité pour un(e) Azure Data Architect chevronné(e) de rejoindre notre client final basé à La Défense sur un projet sensible à destination de millions de professionnels et de particuliers. Vous rejoindrez une équipe hautement performant pour participer à un ambitieux projet full Azure. Missions principales : · Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud. · Exécuter des restitutions documentaires dans les normes et l'architecture. · Concevoir et proposer des solutions sur Snowflake · Appliquer la stratégie " Data as a Service " dans le respect des bonnes pratiques architecturales · Concevoir et développer des APIs / Micro-services · Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub · Contribuer au catalogue de services pour l'enrichissement en libre-service · Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. · Être le référent au sein de l'équipe pour tous les sujets liés au cloud. · Conduire des ateliers et faciliter la collecte des besoins · Soutenir les data engineer sur les sujets liés au cloud · Soutenir l'équipe de sécurité pour les sujets connexes · Contribuer à la feuille de route et à l'évolution du projet · Challenger et soutenir les fournisseurs externes · Collaborer étroitement avec les équipes IT, partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration.
Product Owner Big Data - Socle Hadoop

Missions principales : Vision produit et roadmap Définir la vision et la stratégie du socle Hadoop en lien avec les enjeux métiers. Construire et maintenir la roadmap produit en fonction des priorités business et techniques. Identifier les besoins utilisateurs et traduire les exigences en backlog. Gestion du backlog et priorisation Rédiger les user stories et critères d’acceptation. Arbitrer et prioriser les développements avec les équipes techniques. Animer les cérémonies Agile. Collaboration et suivi des développements Travailler en étroite collaboration avec les équipes Data, DevOps et Sécurité. Garantir la qualité des livrables et le respect des bonnes pratiques Hadoop. Assurer un suivi des KPI liés à l’usage et à la performance du socle Hadoop. Accompagnement des équipes métier Recueillir les besoins des équipes et leur proposer des solutions adaptées. Organiser des formations et des démonstrations sur les usages du socle Big Data. Gérer la communication autour des évolutions et des nouvelles fonctionnalités.
Tech Lead Data / IA H/F

Nous recherchons pour notre client, un acteur majeur du secteur des médias, un Tech Lead Cloud / Data Ingénieur expérimenté pour concevoir, construire et gérer notre offre de service mesh Data/IA. Vous rejoindrez le département Data IA (DaIA) responsable de fournir aux métiers une infrastructure technologique permettant de mettre en production et d'industrialiser les cas d’usage Data et IA. Ceci inclut le développement d'une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI). Vous participerez activement à la mise en place de l'infrastructure, en assurant sa bonne intégration avec la plateforme data et les produits associés et l'optimisation des différents aspects techniques. Responsabilités : - Concevoir, gérer et maintenir le service mesh permettant la mise à disposition des API Data et IA et l'orchestration des traitements dans le respect des contraintes de disponibilité, sécurité et performance. - Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. - Designer et participer à la mise en oeuvre de la plate-forme sur les aspects réseau, sécurité, DNS, etc. - Designer et Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. - Co designer avec les tech Lead Data Science pour designer et mettre en place les solutions technologique MLOps appropriées afin de pouvoir industrialiser les différents cas d’usages des métiers Data & IA . - Designer et mettre en place la migration de la stack technique Data vers la nouvelle plate-forme. - Garantir que l’architecture de la stack Data est en totale adéquation avec l’ensemble du SI applicatif - Assurer la maintenance et l'optimisation des systèmes de données existants. - Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps. La prestation s’effectue au sein du département DaIA avec une présence à temps complet, et pourra se dérouler en présentiel ou à distance, selon les besoins des équipes. Le candidat choisi devra se sentir pleinement investi de sa mission et motivé par les différents livrables attendus par le service. Conditions de la mission : > Localisation : Paris 15ème > Remote partiel : 2 /3 jours de télétravail par semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Cotisations URSSAF : différence importante entre simulation comptable et simulateur URSSAFil y a 2 heures
- Certification DevOps : bon plan ou perte de temps ?il y a 6 heures
- Avis sur les ERP du marché actuelil y a 13 heures
- Réservation d'articles par défautil y a 13 heures
- baisse demande de prestas et freelance ?il y a 14 heures
- Comprendre les sociétés de portageil y a 15 heures