Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data engineer confirmé
Nous sommes à la recherche d'un data engineer confirmé pour notre client final à Lille. Les missions principales sont: Développer et maintenir les flux de données provenant de divers produits digitaux (Stambia/BigQuery). Implémenter les modifications dans les dataviz (PowerBI) Gérer la dette technique afin d'assurer la fiabilité de nos outils. Optimiser les performances des processus de traitement des données. Assurer la supervision et l'intégration des données de différentes natures provenant de multiples sources, tout en vérifiant la qualité des données entrant dans le Data Lake (en validant les données, en éliminant les doublons, etc.). Collaborer avec les équipes métiers et techniques.
Data Engineer – Java / Spark (F/H)

📑 CDI (36 - 40K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / semaine - 📍 Toulouse - 🛠 Expérience de 2/3 ans minimum Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables.
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Data Engineer AWS
Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.
Data Engineer AWS

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production
DATA ENGINEER SEMARCHY F/H | DIJON (21)

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Data Engineer Semarchy F/H et serez en charge de : Participer à la configuration de la plateforme selon les besoins métier. Concevoir et optimiser des modèles de données et des workflows d’intégration. Rédiger des spécifications techniques et fonctionnelles. Développer et exécuter des requêtes SQL avancées. Gérer les bases de données Vertica et assurer leur performance. Assurer la qualité des données et leur conformité aux standards en vigueur. Former et accompagner les utilisateurs. Environnement Technique : Semarchy / Stambia, Vertica, SQL Le poste est basé à Dijon (21) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Data Engineer Snowflake

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Data Engineer Snowflake

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.
Data Engineer Dataiku

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Dataiku. Le data engineer sera amené, en s’appuyant sur notre plateforme Dataiku, à : · Développer et opérer les pipelines de mise à disposition des référentiels · Développer les contrôles de data quality et d’alerting selon les spécifications du propriétaire des données · Assurer la mise en production et le suivi post-MEP des traitements développés ; De la veille et la formation Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Data Engineer

Concevoir et implémenter des flux de données (ingestion, stockage, transformation, provisionnement) dans le Datalake. Travailler au sein d'une architecture cloud AWS (S3, Glue, ECS, etc.). Une solide compréhension des services AWS est requise. Développer et maintenir des systèmes à l'aide du framework Spark, Scala et SQL. Contribuer à la maintenance opérationnelle du Datalake. Utiliser les pratiques DevOps et des outils de déploiement automatisé tels que Jenkins, Ansible, CloudFormation, Git et Maven. Bien que la connaissance de ces outils (notamment Git et Maven) soit un atout, elle n'est pas obligatoire. Prendre en charge les tâches de développement liées aux projets de build.
Lead Data Engineer Senior

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Data engineer (F/H)

Nous recherchons pour le compte d'un client, en région parisienne, un Data engineer (F/H) avec minimum 3 ans d'expérience sur ce poste. Contexte : Renforcement d'équipe le profil sera amené à travailler sur la mise en oeuvre de plusieurs produits data visant à l'exposition et la mise en qualité des données de références. L'environnement de travail est sur le cloud AWS avec terraform en infra as code Les enjeux : Créer des modèles de données génériques Ingestion et traitement des sources de données Préparation des données (transformation fonctionnelle et technique) Elaboration de système avancé de gestion de qualité de données Elaboration d'API/workflow Exposition des données (Elasticsearch, RDS) via des API pour les applications front Préparation des packages de livraison en Infra as code Gestion du cycle de livraison en production MCO Rédaction des documentations techniques Curiosité pour comprendre les données manipulées Démarrage début Avril 2025
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Data Engineer
Vous interviendrez sur des projets d’intégration de données ainsi que sur des activités de run. Vous travaillerez en étroite collaboration avec d’autres Data Engineers et un Data Architect au sein d’une équipe de 7 personnes. Vos principales missions seront : Développement et maintenance des pipelines ETL sur Azure Data Factory Gestion et optimisation des flux de données avec Logic Apps Manipulation et requêtage avancé en T-SQL / PL-SQL Exploitation des données via Power BI Automatisation et scripting avec Python Utilisation de la Power Platform Azure (un plus) Mise en place et suivi des bonnes pratiques DevOps CI/CD
Data engineer

Nous recherchons un(e) Data Engineer afin de renforcer le les équipes de notre client en vue d'optimiser la personnalisation, le taux de conversion et les assets du business. Compétences requises : • Maîtrise de technologies Big Data: développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL). • Agilité. • AWS Livrables attendus : • Définir et analyser des structures de données, • Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, • Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), • Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), • Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, Présenter et expliquer les réalisations à des publics métiers et techniques. Des connaissances en développement dans un langage de programmation (PYTHON, SCALA et/ou JAVA) seront appréciées.
DATA ENGINEER (H/F)

Notre client est une entreprise en pleine transformation digitale, au cœur d’une dynamique d’expansion. L’objectif ? Optimiser la gestion des données pour accompagner le développement de ses activités, tout en ayant un impact positif sur son écosystème. Dans un contexte de croissance et de digitalisation, nous recherchons un(e) Data Engineer passionné(e) par les défis techniques liés à la gestion et à l’exploitation des données. Vos missions En tant que Data Engineer, vous jouerez un rôle clé dans la construction de pipelines de données robustes et scalables, ainsi que dans l’optimisation des flux de données existants. En collaboration avec les équipes Data et IT, vos principales responsabilités seront : * Concevoir, développer et maintenir des pipelines de données (ETL/ELT) performants pour l’ingestion, la transformation et la modélisation des données. * Assurer la qualité des données (data quality, data lineage, data governance) et la fiabilité des traitements. * Optimiser les performances des bases de données (BigQuery, Redshift, Snowflake, PostgreSQL). * Orchestrer les workflows de données via des outils comme Airflow, DBT, Talend. * Collaborer avec les équipes Data Science, BI et IT pour répondre aux besoins métiers. * Participer à l’industrialisation des modèles de données et à la mise en place de solutions cloud (GCP, AWS, Azure). * Effectuer une veille technologique pour proposer des solutions innovantes en matière de Data Engineering.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- avis de client lefebre dalouzil y a une minute
- 1 an sans mission, pluseurs dizaine d'entretiens client, le marché va si mal que ca ?il y a une heure
- Activités de team building pour freelances IT ?il y a 2 heures
- Premiers jours de prestation non facturésil y a 2 heures
- Clause de non concurrence (portage)il y a 5 heures
- Exploring the Vast Kingdom in Brothers Kingdom Game: Must-Visit Locations and Questsil y a 7 heures