Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 201 résultats.
CDD
CDI

Data Engineer / Dataiku / Alteryx (F/H)

Taleo Capital

Contexte de la mission Au sein d’une équipe agile rattachée aux Ressources Humaines Groupe, le pôle People Analytics accompagne la fonction RH dans l’exploitation de la donnée à des fins stratégiques et opérationnelles. L’équipe construit et maintient des produits analytiques pour : Favoriser la prise de décision RH, Améliorer l’expérience collaborateur, Alimenter les reporting RSE en tant qu’employeur responsable, Digitaliser les processus RH. Grâce à une plateforme intégrée centralisant les données RH, l’équipe pilote l’ensemble du parcours collaborateur via la création et la gestion de DataMarts. Objectif de la mission Dans le cadre d’un remplacement pour congé maternité et d’un chantier de rationalisation des data products existants, le consultant interviendra sur l’intégration et l’évolution de produits analytiques sur la plateforme People Insight. Responsabilités Compréhension des processus RH et de la donnée associée. Analyse critique des traitements existants développés sous Alteryx. Intégration des données dans l’environnement Oracle. Structuration et préparation des datasets dans Dataiku selon les standards internes. Création et maintenance des indicateurs alimentant les dashboards Tableau. Vérification de la compatibilité des tableaux de bord avec les nouvelles structures de données. Implémentation de contrôles de qualité des données. Rédaction de la documentation technique (dictionnaires, guides, wiki…). Formation des membres de l’équipe People Analytics à la maintenance des produits. Partage régulier de l’avancement avec les pairs.

Démarrage Dès que possible
Durée 6 mois
Salaire 50k-60k €⁄an
Lieu Paris, France
Freelance
CDI

Data engineer Teradata

DATSUP

je recherche un Développeur Data pour rejoindre une squad dédiée aux sujets CRM et Conformité . Vous intégrerez une équipe pluridisciplinaire intervenant sur des plateformes data de dernière génération, dans un environnement technique riche et stimulant. Participer à la conception et au développement de Datalabs et Datamarts sur la technologie Teradata ; Développer et maintenir des solutions de collecte , stockage et traitement de la donnée (constitution d’agrégats, calculs de scores, etc.) ; Assurer la mise à disposition des données pour les équipes data science et les utilisateurs métiers ; Respecter les bonnes pratiques de modélisation , de développement et d’ optimisation des performances .

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Lieu Vitry-sur-Seine, Île-de-France
Freelance
CDI

Data Engineer

XPEHO

Ton quotidien : ⭐ Être garant de l'accès qualitatif aux données 📈, ⭐ Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprises, ⭐ Réaliser la publication des données dans le Cloud, ⭐ Participer à la construction des modèles de données à mettre en œuvre (Alimentation, stockage, modélisation, restitution), ⭐Validera la qualité des développements de son équipe, ⭐ Définir la politique de la donnée et de son cycle de vie 🧬. 🏅 𝐓𝐞𝐬 𝐚𝐭𝐨𝐮𝐭𝐬 𝐩𝐨𝐮𝐫 𝐫𝐞́𝐮𝐬𝐬𝐢𝐫 Être force de proposition sur d’éventuelles innovations Capacité à travailler en interdépendance avec d’autres équipes Volonté d’évoluer dans un environnement agile et dynamique

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Villeneuve-d'Ascq, Hauts-de-France
Freelance

Data Engineer GCP & JAVA

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer Azure Java Spark (5 ans et plus)

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs l'entité est en charge des développements liés aux applications sources, de contrôle et de valorisation des instruments, des données de marchés et des facteurs de risques. L'application sert à transférer les données sur le Cloud public (Azure) à des fins analytiques. 💡 Objectifs et livrables Les enjeux étaient nombreux :  Volumétrie de données  Performance / Multi-Threading  Data Quality  Legacy Management  Large éventail de technologies à maîtriser : o Etudes techniques o Refonte technique et refonte de l’architecture du projet o Migration On-Premise vers Azure o Optimisation des performances o Amélioration du Code Quality o Mise en place des process CI/CD o Mise en place du monitoring o Diverses implémentations et migrations techniques de composants déployés dans Azure (AirFlow, Migration Blue/Green, etc…)

Démarrage Dès que possible
Durée 3 ans
Salaire 50k-65k €⁄an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer GCP (H/F)

BK CONSULTING

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps

Démarrage Dès que possible
Salaire 40k-54k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Expert Data Engineer AWS / Big Data (H/F)

CITECH

CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos compétences au service d’un projet stratégique dans le secteur de l’énergie ? Nous avons LA mission pour vous ! Nous recherchons un(e) Expert Data Engineer AWS / Big Data (H/F) avec 12 ans d’expérience minimum. 👉 Vous interviendrez au sein d’un grand groupe du secteur de l’énergie, dans le cadre d’un projet de refonte d’un système d’information à fort enjeu industriel. 👈 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Analyser et cartographier les pipelines de données existants : modèles de données, flux inter-SI, règles de transformation 🔸 Co-construire, avec les architectes, une nouvelle architecture data basée sur les services AWS 🔸 Accompagner les équipes de développement dans la mise en œuvre de la nouvelle solution 🔸 Définir et promouvoir les bonnes pratiques en data engineering 🔸 Concevoir une solution d’intégration des données issues de plusieurs systèmes partenaires 🔸 Formaliser un catalogue de données et documenter les règles de transformation associées 🔸 Apporter une expertise sur les outils Big Data et le déploiement d’infrastructure via IaC

Démarrage Dès que possible
Durée 12 mois
Salaire 50k-70k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Azure Data Engineer

Phaidon London- Glocomms

Nous recherchons un ingénieur Azure Data pour rejoindre l'équipe Advanced Analytics Service Delivery Team. L'objectif de l'Advance Analytics SDT est de fournir des capacités autour de l'intégration et de l'ingénierie des données et du déploiement de modèles pour les cas d'utilisation prioritaires. L'équipe est composée d'ingénieurs en données, d'experts en la matière, d'architectes de services, d'ingénieurs DevOps, de testeurs, de propriétaires de produits techniques et de Scrum Master. La hiérarchisation du carnet de commandes est effectuée en collaboration avec les propriétaires de produits commerciaux sur la base du pipeline de cas d'utilisation. L'équipe soutient la Cloud Analytics Platform pour créer des capacités autour de solutions numériques et d'analyses avancées. La plateforme héberge le lac de données de l'entreprise du client où les données IoT provenant des équipements des usines des clients dans le monde entier sont collectées et complétées par des sources de données internes. L'équipe utilise ses capacités d'ingénierie des données pour obtenir des informations et générer des solutions aux problèmes des clients. En tant que Data Engineer, vous devrez : - Identifier les ensembles de données nécessaires pour chaque cas d'utilisation en collaboration avec les équipes sources et les analystes commerciaux - Intégrer les données dans le lac de données de l'entreprise - Déplacer et transformer les données du lac de données vers la base de données SQL ou le serveur de données SQL, en fonction du cas d'utilisation. - Implémenter la logique en fonction des besoins de l'entreprise (par exemple, définition des KPI, etc.) - Collaborer avec d'autres équipes informatiques pour créer une solution complète autour d'un cas d'utilisation. - Gestion du cycle de vie des cas d'utilisation livrés Qui êtes-vous ? - Expérience avec la plateforme Microsoft Azure (Data Lake, Data Factory, Databricks, Data Warehouse, Azure DevOps) - Expérience dans la modélisation de bases de données et d'informations - Expérience avec la manipulation de données en utilisant SQL et Python (R est un bonus) - Expérience avec Apache Spark Framework (de préférence PySpark - Python) - Expérience avec des langages de script tels que Python et PowerShell (C#/. NET) - Expérience de l'intégration de systèmes et de services - Expérience de la consommation d'API REST - Expérience du développement d'API REST (de préférence avec Flask - Python) - Expérience des conteneurs Docker

Démarrage
Durée 12 mois
TJM 600-850 €⁄j
Télétravail Télétravail 100%
Lieu Paris, France
CDI
Freelance

Data Engineer Python - pipelines d'orchestration de modèles ML

VISIAN

Contexte : Nous recherchons un(e) développeur(se) Python passionné(e) pour rejoindre une équipe spécialisée dans la création de pipelines d'orchestration de modèles ML (préparation de features, entraînement, tuning et inférence). Ces pipelines permettent aux Quants & Data Scientists d’ industrialiser l’utilisation des modèles de Machine Learning pour la prévision de la consommation et de la production d’énergie. Missions : Concevoir et développer des pipelines de données pour le cycle de vie des modèles ML. Collaborer avec les Quants et Data Scientists pour résoudre les problématiques liées aux modèles de Machine Learning. Optimiser les processus d’entraînement et de déploiement des modèles. Contribuer à l’amélioration de la plateforme dédiée au forecasting en exploitant l’IA et le Big Data.

Démarrage Dès que possible
Durée 1 an
Salaire 10k-45k €⁄an
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer Snowflake / Sagemaker

VISIAN

Le Data Engineer contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT… Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le datalake (il recette de la donnée, supprime les doublons, …).

Démarrage Dès que possible
Durée 1 an
Salaire 40k-55k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data /Software Engineer junior H/F

Cheops Technology

Nous recherchons un profil Data /Software Engineer junior ( ~3 ans d’expérience) pour une mission longue durée pour intervenir chez notre client basé en IDF Voici les éléments les plus important pour la mission : Compétences obligatoires : Python, HTML, CSS, Javascript GIT, Dataiku, ainsi que des pratiques de développement et de maintenance en CI/CD Intelligence Artificielle et Machine Learning : Expérience avec des frameworks Data science comme Scikit-Learn, Streamlit, Pandas, Pytest Modèles LLM Cloud AWS & Azure Compétences appréciées : Snowflake

Démarrage Dès que possible
Durée 12 mois
TJM 400 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer Dataiku / Python / Spark / AWS

Groupe Aptenia

Dans le cadre d’un projet d’industrialisation des pipelines de données, notre client recherche un Data Engineer confirmé Python / Spark / Dataiku pour renforcer une équipe data déjà en place. L’objectif principal est de structurer un socle technique robuste, améliorer la qualité des traitements et fiabiliser les processus de mise en production. Vous serez amené à travailler sur des sujets de tests automatisés, de monitoring de pipelines, de performance, et de déploiement continu. Le rôle est transverse : il implique à la fois des compétences techniques solides et une capacité à faire évoluer les pratiques de l’équipe.

Démarrage Dès que possible
Durée 8 mois
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer Python / AWS

VISIAN

Missions : Développer des outils d’aide à la décision et de nouvelles architectures data. Collecter, ingérer, traiter et restituer les données (météo, fondamentales, etc.). Optimiser les coûts et les performances des solutions data. Gérer le cycle de développement, l’infrastructure et les mises en production (DevOps). Assurer la maintenance évolutive et le support technique. Accompagner les analystes et data scientists dans l’utilisation des outils. Animer des workshops et formations sur les technologies Big Data et AWS.

Démarrage Dès que possible
Durée 1 an
Salaire 10k-45k €⁄an
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer Dataiku

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Dataiku. Le data engineer sera amené, en s’appuyant sur notre plateforme Dataiku, à : · Développer et opérer les pipelines de mise à disposition des référentiels · Développer les contrôles de data quality et d’alerting selon les spécifications du propriétaire des données · Assurer la mise en production et le suivi post-MEP des traitements développés ; De la veille et la formation Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-70k €⁄an
TJM 400-650 €⁄j
Télétravail Télétravail partiel
Lieu Guyancourt, Île-de-France
Freelance

Data Engineer Teradata / Informatica (HF)

SMARTPOINT

La prestation concerne la prise en charge de bout en bout des demandes de data. Le/la consultant(e) sera en lien direct avec l'ensemble des métiers sans intermédiaire et devra être en capacité de délivrer les développements attendus. Il/elle devra challenger les besoins et être force de proposition dans les solutions attendues. Il/elle se verra affecter un portefeuille de demande et devra être en capacité d’organiser son plan de charge en fonction de ses engagements et la disponibilité de ses interlocuteurs. Il/elle devra avoir une démarche agile, à savoir délivrer par itération et privilégier une approche de type « prototypage ». L’équipe est répartie en plusieurs « cellules » pour les activités suivantes : Appui au Pilotage Production Projets Agiles Projets Industriels Projets Industriels : Prendre en charge les demandes de data complexe (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participer ou organiser des ateliers métiers, recueil et analyse des besoins, Modéliser les traitements en mode industriel Réaliser la recette qualitative et quantitative Accompagner le métier dans la phase de validation Communiquer à toutes les phases du projet Réaliser la documentation (EB, Cahier de Recette) Présenter le sujet aux autres équipes (Fiche synthétique projet, Présentation .ppt, Communication par email, …) Accompagner les autres membres de l’équipe dans la phase de modélisation Assurer la gouvernance de la donnée Production : Maintien en condition opérationnelle en effectuant le suivi de production, mise à jour de la documentation, optimisation et correction des traitements afin de respecter les bonnes pratiques en vigueur, rattrapages et relances auprès des partenaires internes et externes pour fiabiliser les échanges Prend en charge les demandes de data simples (croisements, production de listing, enrichissement de fichiers) Participe à des ateliers métiers, recueil et analyse des besoins, Développe et déploie les traitements en mode agile Communication en cas d’incident Assure la permanence, l’assistance et le support utilisateurs (questions, incidents, etc.) Projets Agiles : Prend en charge les POC et projets data en mode agile (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participe ou organise des ateliers métiers, recueil et analyse des besoins, Modélise, développe et déploie les traitements en mode agile Réalise la recette qualitative et quantitative Accompagne le métier dans la phase de validation Communique à toutes les phases du POC / projet Livrables attendus : Documentation (exigences logiciels, standards et bonnes pratiques) Exigences Fonctionnelles Guides utilisateurs Rapport de test Spécifications fonctionnelles Spécifications techniques

Démarrage Dès que possible
Durée 6 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Bagneux, Île-de-France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous