Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris
Data Ingénieur

🎯 Votre mission, si toutefois vous l’acceptez… Nous recherchons un Data Ingénieur pour renforcer une équipe déjà bien en place, et collaborer étroitement avec un architecte data au sein du département Analyse. 🔥 Pourquoi cette mission est-elle "impossible" (ou presque) ? Depuis le rachat de l’entreprise, tout est à construire from scratch. Un environnement brut, des défis techniques de haut vol, et des enjeux stratégiques à fort impact 🧠 Ce qu’il vous faut pour réussir : ✔️ 7 à 8 ans d’expérience en data engineering ✔️ Maîtrise full Azure (on-prem quasi inexistant) ✔️ Stack : Datalake, Databricks, MongoDB 📍 Lieux possibles : Paris / Lorient / Nantes 🏠 Présentiel : 3 jours / semaine 🕐 Durée : 6 mois + embauche possible 🚀 Démarrage : début juin (au mieux) Vous pensez pouvoir relever la mission ?
Consultant Databricks

Kajenthi@RED Global – Recherche Consultant Databricks – Paris – On site – Freelance – 6 mois + RED Global est à la recherche d'un Consultant Databricks , en Freelance, sur Paris, 100% présentiel 📍 Localisation : Paris, 100 % présentiel 📅 Durée : 12 mois + renouvellement 🚀 Démarrage : ASAP 🎯 Vos missions principales : Collaboration via notebooks partagés (avec commentaires, versioning…) Documentation des workflows Automatisation et orchestration de tâches (avec Job Scheduler intégré) Sécurité et gestion des accès (workspace collaboratif sécurisé) 💡 Compétences techniques requises : - Plus de 4 ans d’experience sur Databricks Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour en format Word :
Consultant DATABRICKS

Nous recherchons pour l'un de nos clients dans le monde financier, un consultant Expérimenté ou Senior sur la technologie Databricks. Nous souhaitons une personne ayant une ou des expériences significatives dans la mise en place de Databricks. - Expérience minimum de 4 ans de projet Databricks sera requis pour le poste. - Il s'agit d'une mission longue durée, jusqu'à fin 2025 minimum. -Localisation : Paris -Télétravail : Pas de télétravail possible. -Tarif selon profils et expérience -Durée : Fin 2025
Profil Databricks

Notre client souhaite implémenter Databricks pour unifier ses données (ventes, stocks, clients) dans un Delta Lake , permettant des analyses temps réel et du ML prédictif (ex. : prévision de demande). La solution optimisera la gestion des stocks et personnalisera les offres clients via des tableaux de bord interactifs . L’objectif est de rendre les opérations plus data-driven et collaboratives. .... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ..
Data Scientist – Supply Chain / Machine Learning (H/F) - IDF

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Scientist – Supply Chain / Machine Learning (H/F) - IDF Contexte : L’objectif : optimiser la chaîne logistique (dispatch, gestion de stock, disponibilité produit) grâce à des solutions IA et analytiques de pointe. Environnement : Équipe pluridisciplinaire (Data Scientists, Analysts, Engineers, PMs) en méthode agile, avec une stack technique moderne (Python, Databricks, AWS, Spark…). Objectifs de la mission : Concevoir, développer et déployer des modèles de ML/optimisation pour la supply chain. Travailler sur des sujets à fort impact business : prévisions de ventes, optimisation du stock, détection de ruptures… Collaborer étroitement avec les équipes produit et métier. Industrialiser et maintenir des modèles robustes à l’échelle. Vulgariser les résultats (data storytelling) et assurer une veille technique. Compétences clés : Python (expert) et écosystème data science/scikit-learn, pandas, etc. Machine Learning & optimisation sous contraintes Traitement de données volumineuses (Spark, SQL, HDFS) Cloud (AWS, Databricks), CI/CD, Git Anglais professionnel requis Profil recherché : Expérience confirmée en data science appliquée à la supply chain , notamment en gestion de stock/inventaire et prévisions. Solide capacité à collaborer avec les métiers et à vulgariser les résultats.
Consultant Databricks Senior 4+ ans d'exp/sal

Consultant Databricks Consultant Databricks Senior 4+ ans d'exp.sur la technologie Databricks. clients dans le monde financier Nous souhaitons une personne ayant une ou des expériences significatives dans la mise en place de Databricks, un minimum de 4 ans de projet Databricks sera requis. Il s'agit d'une mission longue, jusqu'à fin 2025 minimum, chez ce client parisien. Pas de télétravail possible. Consultant Databricks Senior 4+ ans d'exp.sur la technologie Databricks. clients dans le monde financier
Un Profil Senior Databricks sur Paris

Smarteo recherche pour l'un de ses clients, Un Profil Senior Databricks sur Paris Nous souhaitons une personne ayant une ou des expériences significatives dans la mise en place de Databricks, un minimum de 4 ans de projet Databricks sera requis. Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word Smarteo recherche pour l'un de ses clients, Un Profil Senior Databricks sur Paris Nous souhaitons une personne ayant une ou des expériences significatives dans la mise en place de Databricks, un minimum de 4 ans de projet Databricks sera requis. Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word
Data Architect Solutions EXPERT AZURE DATABRICKS

Bonjour à tous, Je recherche pour un de mes clients grand compte un data architect solutions. Quelques informations concernant le poste : Le Data Solution Architect communiquera avec les différentes parties prenantes (IT product manager, experts techniques, directeurs) pour concevoir, expliquer, montrer si nécessaire, l'état de l'architecture, les possibilités et les évolutions. Il/elle examinera les exigences (métier, données, sécurité, confidentialité) et les éléments de conception de haut niveau de l'architecture. Il/elle gérera la traçabilité des décisions d'architecture et la qualité de la documentation et de la mise en œuvre de l'architecture (gestion des écarts) de la conception de haut niveau à la conception de bas niveau
Data Analyst
Orcan Intelligence recherche pour l'un de ses clients dans le secteur assurantiel un Data Analyst dans le cadre d’un projet d’optimisation de flux de données. Vos principales missions seront : Optimiser la production des comptes de rétrocession externes pour gagner en efficacité et réduire les délais. Développer des KPIs pour suivre et contrôler les processus métiers liés à la comptabilisation rétro. Assister le Data Analyst Rétro dans ses tâches quotidiennes et les projets d'amélioration data. Mettre en œuvre des outils et méthodes statistiques pour organiser et interpréter les données.
Data Product Manager
Au sein de l’organisation produit Data nous recherchons un·e data Product manager, il·elle sera chargé.e d’explorer et structurer les besoins, animer la mise en place de pipelines de données et leurs de performance et d’ assurer un fonctionnement durable de la solution. Vous évoluerez au sein des équipes data, tu es intégré.e à l’écosystème lié à votre produit. Vous interagirez avec les utilisateurs de vos données, les Data engineer, les Data owners et les product managers des autres core data product. Nous cherchons un profil pour accompagner la mise en production d'un algorithme de computer vision permettant l'identification des composants de produits. Cette identification facilitera le démantèlement des produits et leur recyclage. Ce data product manager doit être autonome pour travailler avec des équipes basées à Hendaye, pragmatique et ne pas avoir peur d'allier expertise terrain et concret. Fort.e d'une expérience de data scientist, ce.tte a déjà mis en production un algorithme sous forme d'API. Une expérience de computer vision est un plus. Objectifs et livrables : Explorer les besoins et problématiques liées aux données nécessaires Définir la vision produit et la partager à tous Co-écrire la roadmap du produit, la partager, l’adapter et animer sa mise en œuvre Co-développer le produit avec le CETIA, notre partenaire Co-concevoir le produit Identifier dans quel produit data récupérer les données Mise en production de l'algorithme Faire vivre le produit Valider et vérifier la conformité des données avec les besoins des utilisateurs Vérifier l’impact des évolutions du produit sur le comportement des utilisateurs et sur leur satisfaction Faire connaître son produit et développer son utilisation Garantir la formation et l’accompagnement des utilisateurs Garantir avec sa feature la maintenabilité, l’évolutivité et la fiabilité du produit Effectuer de la veille sur les produits concurrents et sur l'écosystème dans lequel le produit évolue
Data Engineer AWS Databricks Snowflake

Nous recherchons actuellement un Data Engineer AWS databricks snowflake pour une mission sur Paris avec un client final. Au sein du data office le Data Engineer contribue au développement et à l’optimisation de la Data Platform. Missions principales : ▶️ conception et l’implémentation des pipelines de données. ▶️ optimisation des traitements et flux de données (batch et streaming). ▶️ mise en place des bonnes pratiques de développement et d’exploitation. ▶️ fiabilité et la performance de la Data Platform.
Project management/Product owner Confirmé

Contexte En pleine transformation digital, le client a décidé de créer une plateforme dédiée aux énergies renouvelables. Ce nouvel outil de gestion des données est connecté à l’ensemble des sites de production du Groupe à travers le monde pour améliorer les performances des parcs éoliens et solaires. Avec cette plateforme, l'entreprise souhaite faciliter la prise de décision des exploitants, permettre une maintenance prédictive et améliorer la rentabilité des installations. Contexte technique La plateforme digital du client contient de nombreux modules différents tous basés sur des technologies Schneider ou Microsoft. Il s’agit d’une plateforme totalement hébergée dans le Cloud et déployée dans une vingtaine de pays. La prestation concernant le renfort de l’équipe « PO/PM » de la plateform. L’équipe « PO/PM » gère un portefeuille de produits software pour des clients internes au groupe. La mission sera de longue durée et localisée dans les locaux de l’entreprise de préférence à Paris Activités Jouant un rôle d’interface entre les besoins clients/utilisateurs, les développements de l’équipe hypervision & control center. Le PO/PM coordonne la définition des moyens à employer, le développement et la mise en production de nouveaux projets de type data dans le respect des impératifs de qualité et de délai. L’objectif consiste également à assurer l’amélioration continue des méthodes et des outils utilisés par les équipes. Plusieurs étapes et techniques sont nécessaires pour transformer un prototype en un produit utilisable : • Collecte de besoins et spécifications générales • Mise en visibilité des risques et des dépendances avec les autres équipes de développement • Planification des livraisons des prochains mois • Spécifications détaillées (Définition des input/output, réalisation de mockups, taches à réaliser, difficultés, etc.) • Coordination de l’équipe • Tests • Mise en production • Formation Le PO s’intègre dans un projet dynamique en méthodologie agile et dans une équipe de grande taille.
Data Engineer Snowflake

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'industrie musicale Description 🔍 Contexte Dans le cadre de l’extension de sa Data Platform à l’échelle du groupe (filiales incluses), le groupe renforce son équipe Data Office. Rattaché à l’Engineering Manager Data Platform, vous interviendrez sur un projet de scalabilité et d’industrialisation de la plateforme data. 🛠️ Missions Concevoir et implémenter des pipelines de données (batch et streaming) Optimiser les flux et traitements de données Développer et maintenir une architecture Data robuste et scalable Industrialiser les traitements et automatiser les déploiements (CI/CD) Garantir la fiabilité, la performance et la résilience de la Data Platform Suivre et optimiser les KPIs (performance, coût, monitoring) Participer à la veille technologique et à l’amélioration continue
Architecte Fonctionnel Data Mesh - Groupe CAC 40

Mon client, un grand groupe du CAC 40 démarre de nouvelles initiatives avec une approche Data Mesh of Mesh autour des technologies Azure, Databricks, DBT, Python etc... Missions - Recueillir et comprendre les cas d'usages du Groupe et des entités afin d'identifier et prioriser les sujets Data qui apportent de la valeur au business - Rédiger des specs et user stories en lien avec les sujets priorisés - Mettre en place des process et les communiquer aux équipes afin d'assurer une utilisation approprié de la plateforme - Faire de la veille technologique, benchmark des solutions en lien avec les cas d'usages de l'entreprise
Data Engineer Palantir

Le Data Engineer sera chargé de construire, livrer et maintenir des produits de données (pipelines de données, services, API...). Il travaillera en étroite collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à l'acheminement des données au sein ou entre plusieurs produits, aux capacités analytiques et d'entreposage pour l'exploration des données, la science des données, le BI, le calcul parallèle sur de grands volumes de données.
data engineer senior

data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables. -- data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- URSSAF versement libératoireil y a une heure
- L'ami ne s'appelle pas molette , mais BASIC ... 60 ans déjà.il y a 3 heures
- Vive les 40 ans du Turbo-Pascal du feu éditeur Borland.il y a 4 heures
- SASU IR - Prelevement sociauxil y a 5 heures
- Reconversion professionnelle dans la cybersécuritéil y a 6 heures
- Timing retraiteil y a 7 heures