Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer Snowflake / Sagemaker

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Data Engineer Snowflake

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Data Engineer Snowflake

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.
Senior Data Engineer Snowflake

Contexte de la mission En tant que Data Engineer, vous jouerez un rôle important dans la construction et le déploiement de notre Data Warehouse (DWH) et DataMarts, qui font partie intégrante de la mise en œuvre réussie de projets financiers, de notre outil EPM Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes inter fonctionnelles afin d'assurer l'intégration et la transformation transparentes des données. Objectifs et livrables Responsabilités : Concevoir, construire et maintenir des Data Warehouse et DataMarts évolutifs basés sur des données financières. Vous êtes en charge de l'élaboration et de l'optimisation des requêtes SQL complexes et des procédures stockées dans Snowflake Vous travaillez avec des données SAP, vous comprenez les structures des tables et vous assurez un mappage et une transformation des données exacts. Utiliser Azure Data Factory pour la construction des données et l'orchestration du pipeline. Collaborer avec les équipes DevOps pour mettre en œuvre des pipelines CI/CD à l'aide d'Azure DevOps. Assurer la qualité et l'intégrité des données tout au long du processus ELT.
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Data engineer
📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril
Architecte Data (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lille, France. Les missions attendues par le Architecte Data (H/F) : Le Data Architecte aura pour missions principales : 1. Travailler en collaboration transverse avec l’architecture d’entreprise, l’architecture technique et les experts métiers et les parties prenantes selon sujet. 2. Évaluer les besoins et usages en matière de données au sein des différents métiers de l’entreprise, afin d’identifier les opportunités d’amélioration et les lacunes existantes pour projeter sur une nouvelle architecture de données. 3. Recueillir les attentes utilisateurs et définir les briques techniques nécessaires pour répondre à ces besoins, en collaboration avec les équipes Data, IT et métiers. 4. Cartographier les données de l’entreprise et mettre en œuvre la construction d’une plateforme de données centralisée et performante. 5. Contribuer à la mise en place du dictionnaire des données d’entreprise. 6. Définir le cycle de vie des données et la nomenclature de donnée pour garantir une gestion cohérente et homogène. 7. Préconiser des solutions techniques adaptées pour la collecte, le stockage et la gestion des données, en tenant compte des contraintes de sécurité, performance et conformité (RGPD). 8. Analyser l’impact des solutions retenues selon les besoins métier et proposer des mesures correctives ou évolutives pour maximiser leur efficacité. 9. Faciliter l’usage des données dans l’entreprise via des outils génériques et homogènes pour tous les projets, tout en veillant à leur adoption par les utilisateurs finaux. 10. Industrialiser l’ensemble des activités pour optimiser les cycles de vie des données et en particulier le time to market. 11. Documenter les architectures de manière fonctionnelle et assurer la diffusion de la culture « data » dans l’entreprise, notamment via des formations et des sensibilisations aux bonnes pratiques.
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Architecte IT Fonctionnel

Missions : Evaluer les besoins et les usages des données au sein des différent projet. Décrire la manière dont les données sont gérées, de la collecte à la transformation à la distribution et à la consommation (High Level Design) Assurer que les solutions mises en place respectent la réglementation relative à la collecte et à l’exploitation des données RGPD et au exigence du Data Office du groupe. Mettre en place des outils pour faciliter l’usage des données Surveiller la structure des bases de données et proposer des solutions correctives ou évolutives adaptées. Collaborer avec les équipes IT de développement et les responsables métiers pour assurer une intégration harmonieuse des données. Concevoir l'architecture des données et structurer les modèles en fonction exigences métier. Vérifier les modèles logiques et physiques afin d'assurer l'efficacité des flux de données.
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Développeur Data/Data Engineer
ATTENTION, PRESENCE 2 JOURS PAR SEMAINES OBLIGATOIRE SUR SITE A GOSSELIE. TOUTE PERSONNE AYANT CANDIDATE ET N'ETANT PAS DISPONIBLE SERA BLACKLISTEE PAR NOTRE SOCIETE . Modalités de la mission Dans le cadre de ses activités, le client est à la recherche de deux développeurs Data. Le client est FULL Azure, il faut donc impérativement maitriser les solutions Cloud Microsoft (AWS et GCP ne sont pas nécessaire, peuvent etre un plus). Il s’agit d’une mission à temps plein dont la durée est estimée à 9 mois (renouvelable) et qui débutera idéalement le 15/04/2025. Une partie de la mission peut, en concertation avec le responsable, se faire en télétravail mais une présence sur le site de Gosselies de minimum 2 jours par semaine est obligatoire. Des jours supplémentaires de présence sur site peuvent éventuellement être demandés au consultant, en fonction des besoins du service (de manière ponctuelle). Le site de Gosselies n’étant pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements.
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Période creuse… besoin de conseils et de souffle collectifil y a 3 minutes
- Question impôtil y a 3 heures
- LinkedIn, le super-héros du freelance ?il y a 4 heures
- Ateliers d’idéation : un vrai plus pour les freelances IT ?il y a 5 heures
- Question ?il y a 6 heures
- Choix complexe revenir CDIil y a 18 heures