Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer Big Data (H/F)

Contexte : 3 jours sur site en périphérie lyonnaise + 2 jours télétravail Les missions attendues par le Data Engineer Big Data (H/F) : Notre domaine fournit les services IT pour l’activité Professional Coffee Machine (PCM) : Digital Platform PCM, un datalake Azure dédié et des reportings pour nos clients et équipes internes (hors scope de la recherche) Back-office process (ERP et Field Service Management) : des reportings corporate et locaux sous SAP BW, Analysis for Office ou encore Qlik Sense DATA ENGINEER CONFIRME Dans le cadre de la Digital Platform PCM, nous recherchons un·e Data Engineer confirmé·e qui aura pour missions de prendre en charge des tâches de développement sur des projets de build pour fournir les data pipelines du Datalake et d’intervenir sur le maintien en condition opérationnelle du Datalake. Les développements réalisés permettent aux développeurs Qlik Sense et Azure Dashboard de construire les reports adéquates pour nos clients. Une expérience requise dans ce type d’environnement de 3 ans minimum est pré-requise. Contexte de la mission La mission s’opère en 3 jours sur site et 2 jours en télétravail. Le site est situé à Ecully dont 2 jours au campus et 1 journée au 4M. La mission est un remplacement temporaire d'un membre de l'équipe actuellement composée de 2 Data Engineer et pour une durée de 6 mois minimum. Démarrage souhaitée fin avril/début mai pour une date de fin prévisionnelle fin novembre 2025.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Data Engineer Python - pipelines d'orchestration de modèles ML

Contexte : Nous recherchons un(e) développeur(se) Python passionné(e) pour rejoindre une équipe spécialisée dans la création de pipelines d'orchestration de modèles ML (préparation de features, entraînement, tuning et inférence). Ces pipelines permettent aux Quants & Data Scientists d’ industrialiser l’utilisation des modèles de Machine Learning pour la prévision de la consommation et de la production d’énergie. Missions : Concevoir et développer des pipelines de données pour le cycle de vie des modèles ML. Collaborer avec les Quants et Data Scientists pour résoudre les problématiques liées aux modèles de Machine Learning. Optimiser les processus d’entraînement et de déploiement des modèles. Contribuer à l’amélioration de la plateforme dédiée au forecasting en exploitant l’IA et le Big Data.
Data Engineer / Dataiku / Alteryx (F/H)

Contexte de la mission Au sein d’une équipe agile rattachée aux Ressources Humaines Groupe, le pôle People Analytics accompagne la fonction RH dans l’exploitation de la donnée à des fins stratégiques et opérationnelles. L’équipe construit et maintient des produits analytiques pour : Favoriser la prise de décision RH, Améliorer l’expérience collaborateur, Alimenter les reporting RSE en tant qu’employeur responsable, Digitaliser les processus RH. Grâce à une plateforme intégrée centralisant les données RH, l’équipe pilote l’ensemble du parcours collaborateur via la création et la gestion de DataMarts. Objectif de la mission Dans le cadre d’un remplacement pour congé maternité et d’un chantier de rationalisation des data products existants, le consultant interviendra sur l’intégration et l’évolution de produits analytiques sur la plateforme People Insight. Responsabilités Compréhension des processus RH et de la donnée associée. Analyse critique des traitements existants développés sous Alteryx. Intégration des données dans l’environnement Oracle. Structuration et préparation des datasets dans Dataiku selon les standards internes. Création et maintenance des indicateurs alimentant les dashboards Tableau. Vérification de la compatibilité des tableaux de bord avec les nouvelles structures de données. Implémentation de contrôles de qualité des données. Rédaction de la documentation technique (dictionnaires, guides, wiki…). Formation des membres de l’équipe People Analytics à la maintenance des produits. Partage régulier de l’avancement avec les pairs.
Data Engineer PL/SQL (H/F)

CITECH recrute ! 👌 ✨ Vous souhaitez intégrer une entreprise dynamique et participer à des projets à forte valeur ajoutée ? Nous avons LA mission pour vous ! Nous recherchons actuellement un(e) Data Engineer PL/SQL (H/F) pour une mission chez notre client, acteur majeur dans la gestion des flux numériques, documentaires et des processus métiers des entreprises. 🏙️ 👉 Vous interviendrez dans un environnement stimulant au sein d’équipes techniques passionnées, avec une éventuelle composante batch. 👈 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Développement, maintenance et optimisation de traitements PL/SQL 🔸 Conception et implémentation de pipelines de données robustes 🔸 Industrialisation de processus batch 🔸 Participation à l’analyse des besoins métiers et à la conception technique 🔸 Gestion de la qualité des données et suivi des performances 🔸 Rédaction de documentation technique 🔸 Participation aux phases de test, recette, et mise en production 🔸 Support technique de niveau 2 / 3
Data engineer Teradata

je recherche un Développeur Data pour rejoindre une squad dédiée aux sujets CRM et Conformité . Vous intégrerez une équipe pluridisciplinaire intervenant sur des plateformes data de dernière génération, dans un environnement technique riche et stimulant. Participer à la conception et au développement de Datalabs et Datamarts sur la technologie Teradata ; Développer et maintenir des solutions de collecte , stockage et traitement de la donnée (constitution d’agrégats, calculs de scores, etc.) ; Assurer la mise à disposition des données pour les équipes data science et les utilisateurs métiers ; Respecter les bonnes pratiques de modélisation , de développement et d’ optimisation des performances .
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Data Engineer Dataiku / Python / Spark / AWS
Dans le cadre d’un projet d’industrialisation des pipelines de données, notre client recherche un Data Engineer confirmé Python / Spark / Dataiku pour renforcer une équipe data déjà en place. L’objectif principal est de structurer un socle technique robuste, améliorer la qualité des traitements et fiabiliser les processus de mise en production. Vous serez amené à travailler sur des sujets de tests automatisés, de monitoring de pipelines, de performance, et de déploiement continu. Le rôle est transverse : il implique à la fois des compétences techniques solides et une capacité à faire évoluer les pratiques de l’équipe.
Data Engineer Dev Palantir Skywise & Python

Mission : - Développement Palantir Skywise (Slate, Worshop) - Développement Python - SQL Description détaillée des tâches qui constituent la mission : - Développement Palantir Skywise (Slate, Worshop) - Développement Python Compétences techniques : - Palantir Skywise (Slate, Workshop), - Python Compétences humaines : - Bonne communication et soft skills - Appétence pour le business Site : Marignane, 1 semaine par mois sur site (Marseille) Anglais courant et Français Courant Nb années d'expérience : 3 ans Profil Junior
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Data Engineer Python / AWS

Missions : Développer des outils d’aide à la décision et de nouvelles architectures data. Collecter, ingérer, traiter et restituer les données (météo, fondamentales, etc.). Optimiser les coûts et les performances des solutions data. Gérer le cycle de développement, l’infrastructure et les mises en production (DevOps). Assurer la maintenance évolutive et le support technique. Accompagner les analystes et data scientists dans l’utilisation des outils. Animer des workshops et formations sur les technologies Big Data et AWS.
Data Engineer Snowflake / Sagemaker

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).
Data Engineer GCP Confirmé

Nous recherchons un Data Engineer GCP pour un client dans le secteur média pour renforcer une équipe data. Votre mission : optimiser l’exploitation des données pour améliorer les offres digitales, assurer une collecte conforme, enrichir l’expérience utilisateur et fournir des outils analytiques aux équipes internes. Adossée à une plateforme cloud, l’équipe développe un produit centralisant les données avec une stack moderne ( SQL, DBT, Airflow, GCP, Python ) en visant performance, qualité et industrialisation.
Data Engineer AWS

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production
Data Engineer
Ton quotidien : ⭐ Être garant de l'accès qualitatif aux données 📈, ⭐ Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprises, ⭐ Réaliser la publication des données dans le Cloud, ⭐ Participer à la construction des modèles de données à mettre en œuvre (Alimentation, stockage, modélisation, restitution), ⭐Validera la qualité des développements de son équipe, ⭐ Définir la politique de la donnée et de son cycle de vie 🧬. 🏅 𝐓𝐞𝐬 𝐚𝐭𝐨𝐮𝐭𝐬 𝐩𝐨𝐮𝐫 𝐫𝐞́𝐮𝐬𝐬𝐢𝐫 Être force de proposition sur d’éventuelles innovations Capacité à travailler en interdépendance avec d’autres équipes Volonté d’évoluer dans un environnement agile et dynamique
Data Engineer Dataiku

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Dataiku. Le data engineer sera amené, en s’appuyant sur notre plateforme Dataiku, à : · Développer et opérer les pipelines de mise à disposition des référentiels · Développer les contrôles de data quality et d’alerting selon les spécifications du propriétaire des données · Assurer la mise en production et le suivi post-MEP des traitements développés ; De la veille et la formation Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Portage Commercialil y a 24 minutes
- Acre puis ARE ?il y a 4 heures
- ARCE et cessation d'activité de l'entrepriseil y a 4 heures
- Gain boursier & risque requalificatiion le revoirtaux d'IS à 15 %il y a 6 heures
- Choix logiciel comptabilitéil y a 7 heures
- formation product owner peut débloquer la situation ?il y a 8 heures