Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Consultant Power BI / Databricks

Bonjour, Pour le compte de notre client, nous recherchons un consultant Power BI. En tant que Data Engineer spécialisé en traitement de données , vous intégrerez une équipe dédiée à la valorisation des données. Vous serez responsable de la conception, du développement et du suivi des solutions data en environnement Azure et Databricks . Missions principales 🔹 Analyse et formalisation des besoins : Rédaction des User Stories (US) en collaboration avec les équipes métiers. 🔹 Développement et bonnes pratiques : Implémentation des pipelines de données sous Databricks , en assurant un code propre, testé et versionné avec Git . 🔹 Architecture et intégration : Conception des schémas data en accord avec les besoins fonctionnels et techniques. 🔹 Visualisation et reporting : Production de tableaux de bord interactifs sous Power BI . 🔹 Suivi et documentation : Rédaction des spécifications techniques et des rapports d’avancement (hebdomadaires et mensuels). 🔹 Monitoring et amélioration continue : Mise en place des indicateurs de suivi et gestion des risques pour optimiser les performances des solutions. Livrables attendus ✅ Documentation et spécifications techniques des développements. ✅ Analyses de données et conception d’architectures adaptées. ✅ Pipelines de transformation et d’intégration sous Databricks . ✅ Tableaux de bord et visualisation des données avec Power BI . ✅ Rapports d’avancement et suivi des KPIs du projet. Compétences requises 📌 Techniques : Cloud & Data : Bonne maîtrise de Databricks, Azure (Data Factory, Data Lake, Synapse Analytics, etc.) Développement : Expérience avancée en SQL, Python, PySpark Reporting & BI : Maîtrise de Power BI pour la création de dashboards Orchestration & CI/CD : Connaissance des outils GitLab, Jenkins, VTOM, Step Function Systèmes & Supervision : Familiarité avec Linux, Windows, Kubernetes, Datadog, Kibana, Grafana Gestion de projet agile : Expérience avec Jira, Trello, ServiceNow
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Ingénieur Azure Databricks

Offre de Mission Freelance : Ingénieur MLOps Azure Databricks (Intermédiaire) 📍 Localisation : Paris (présence sur site souhaitée) 📅 Contrat : Freelance 💼 Expérience : 2 à 5 ans d'expérience en MLOps À propos de nous Le client est une entreprise innovante spécialisée dans le Cloud, avec une forte orientation sur l’intelligence artificielle et le big data. Afin de renforcer notre équipe technique, nous recherchons un Ingénieur MLOps Azure Databricks pour une mission freelance, afin de contribuer à la gestion et à l’optimisation de nos pipelines de machine learning sur Azure. Missions principales Développement, gestion et optimisation de pipelines MLOps utilisant Azure Databricks et les services associés (Azure Data Lake, Azure ML, etc.). Automatisation des processus de déploiement des modèles de machine learning en production. Intégration des pratiques CI/CD spécifiques aux environnements ML dans un contexte Azure. Mise en place de solutions d’observabilité et de monitoring des modèles (Azure Monitor, Log Analytics). Collaboration avec les équipes Data et DevOps pour assurer l’intégration continue et l’évolution des modèles. Optimisation de la performance des modèles et gestion des coûts sur la plateforme Azure.
Consultant Master Data Management / Référentiel Tiers
Je cherche un consultant Data Management / Finance : Référentiel Tiers pour un groupe mondiale de gestion d'actifs. le consultant va intégrer l’équipe EDM et Master Data Management (ils sont sur Neoxam). Au niveau du code, il faudrait des capacités d’analyse des données via SQL Server, Databricks et Python pour assurer une cohérence optimale des données métier et facilitant une récupération rapide des données publiques. Enfin, des compétences en Data Viz (PowerBI) est nécessaire pour construire les reportings pour les besoins de data management, réglementaires, transparisation des fonds et représentation des données métiers sur le référentiel.
Data Engineer Databricks Sénior

Nous recherchons un Data Engineer Databricks Sénior avec une expérience minimale de 5 ans. Le contexte : Migration des traitement Apache Spark/Scala du datalake depuis une plateforme AKS/Airflow vers Azure Databricks et mise en place de nouveaux pipelines Organisation et suivi des migrations des projets depuis AKS vers Databricks Audit du patrimoine applicatif et organisation de chantiers de refactorisation pour améliorer la résilience et les performances des applications Homogénéisation des pratiques de développement au sein du service (mise en place TU, process de code review, mise en place d’outils de code quality ...) Suivi et résolution de failles de sécurité Elargissement de l’utilisation des services Databricks par les projets (Unity Catalog, migration parquet vers delta, workflows ...) Maitrise DevOps Maitrise de Spark / Scala / Databricks & AZURE sont indispensables 2 ans d'expérience minimum dans le même environnement technique
Data engineer tech lead Python/Azure Databricks
Freelance / Mission / France / Paris / Data Engineer / Tech Lead / Python / Azurez Data Bricks / Anglais Rôle : Data engineer tech lead Python/Azure Data bricks Localisation : Paris Télétravail : 4j/semaine (80%) Date de démarrage : ASAP Durée : 2 à 3 ans Contexte : Mon client chez cherche en urgence un Data engineer tech lead Python/Azure Databricks. Profil recherché : Au moins 7 ans d'expérience en tant que Data Engineer Précédente expérience sur un rôle de Tech Lead Expertise Python & Azure Data Bricks Bon niveau d'Anglais Si cette opportunité vous intéresse, merci de postuler sur l’annonce ou de me contacter directement avec votre CV (Christopher Delannoy) afin que je puisse rapidement revenir vers vous pour en discuter.
DATA ENGINEER DATABRICKS/POWER BI SENIOR"

CONTEXTE En tant que DATA ENGINEER spécialisé en traitement de données, vous intégrerez une équipe pour concevoir, réaliser, suivre et intégrer des travaux autour de la valorisation de la donnée. MISSIONS • Étude et rédaction d’US, en particulier sur des sujets liés à la data. • Maîtrise des bonnes pratiques de développement (utilisation de git, lisibilité du code, tests, intégration continue). • Fournir une vision complète des solutions data pour le programme. • La maitrise de DATABRICKS est impérative Résultats attendus et/ou livrables • Documentation et spécifications des développements à réaliser. La présentation interactive avec Power BI est à privilégiée • Analyse de données • Développements DATABRICKS • Schéma d’architecture data en lien avec les besoins • Rapports d’avancement : o Rapports hebdomadaires et mensuels sur l’état d’avancement du projet et des livrables, les points bloquants, les risques et les actions correctives. o Indicateurs associés propres au projet. • Documentation technique : o Documentation complète des solutions techniques mises en œuvre.
Data Engineer Databricks - Power BI Sénior

Nous sommes à la recherche d'un Data Engineer Databricks-Power BI Sénior avec une expérience minimale de 5 ans. En tant que DATA ENGINEER spécialisé en traitement de données, vous intégrerez une équipe pour concevoir, réaliser, suivre et intégrer des travaux autour de la valorisation de la donnée. • Étude et rédaction d’US, en particulier sur des sujets liés à la data. • Maîtrise des bonnes pratiques de développement (utilisation de git, lisibilité du code, tests, intégration continue). • Fournir une vision complète des solutions data pour le programme. • La maitrise de DATABRICKS est impérative * La présentation interactive avec Power BI est à privilégiée • Analyse de données • Développements DATABRICKS • Schéma d’architecture data en lien avec les besoins • Rapports d’avancement : o Rapports hebdomadaires et mensuels sur l’état d’avancement du projet et des livrables, les points bloquants, les risques et les actions correctives. o Indicateurs associés propres au projet. • Documentation technique : o Documentation complète des solutions techniques mises en œuvre. Environnement technique Une connaissance avancée dans l’une ou plusieurs des technologies ci-dessous est recommandée pour être à même de faire le lien entre les besoins métiers et la réalisation technique. • SGBDR : PostgreSQL • ETL : Databricks • REPORTING : Power BI • USINE LOGICIELLE : GitLab, Jenkins, Artifactory, Harbor • SYSTEME : Windows, Linux (Ubuntu, RedHat …), Kubernetes • LANGAGE : SQL, SQL LOADER, Script KSH, Java / Groovy, Javascript / Angular, Python • ORDONNANCEMENT : VTOM, Step Function • SUPERVISION : Datadog, Kibana, Grafana • OUTILS : ServiceNow, Jira, Trello Par ailleurs, les niveaux d’expérience minimum suivant seront exigés, une préférence sera portée au profil ayant connaissance du contexte SNCF (procédure, process, organisation…) : • Plus de 5 ans sur le développement Databricks et Power bi
data engineer senior

data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables. -- data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Cloud Data Engineer Databriks

En quelques mots Cherry Pick est à la recherche d'un "Data Databricks Engineer" pour un client dans le secteur de l'énergie Description Contexte Au sein de notre équipe Data Platform, vous interviendrez dans les activités liées à Databricks :Unity Catalog, Policy, Cluster/Serverless, PySpark. Vous participerez à la maintenance et àl'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform,au développement de micro-services en Python, et à la conception et maintenance de chaînes dedéploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data &Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Missions Interventions sur Databricks : Vous travaillerez spécifiquement sur Unity Catalog, la gestion des politiques, les clusters/serveurless, et l'utilisation de PySpark. Maintenance et évolution de la Data & Analytics Platform : Vous participerez à la gestion et à l'amélioration continue de la plateforme de données et des infrastructures cloud. Infrastructure via Terraform : Vous serez impliqué dans l'évolution des infrastructures cloud avec Terraform. Développement de micro-services en Python : Vous contribuerez au développement de micro-services pour l'architecture globale. Gestion du déploiement automatisé (CICD) : Vous serez responsable de la conception et maintenance des chaînes de déploiement continu. MCO/Run (Maintenance et Opérations) : Vous veillerez au bon fonctionnement de la plateforme au quotidien. Documentation : Vous enrichirez et maintiendrez la documentation à l'attention des utilisateurs.
Consultant Power BI

En quelques mots Cherry Pick est à la recherche d'un "Consultant BI" pour un client dans le secteur de l'industrie musicale Description Consultant Power BI – Administration, Transformation & Modélisation Contexte : Dans le cadre du renforcement de notre équipe Data, nous recherchons un expert Power BI pour prendre en charge l'administration de la plateforme Power BI, assurer le support aux utilisateurs, et collaborer avec les Data Engineers sur les transformations et la modélisation des couches Silver et Gold. Missions principales Administration & Support : Gérer et administrer l’environnement Power BI (Workspaces, sécurité, gouvernance). Assurer le support aux utilisateurs (débogage, aide à la prise en main, meilleures pratiques). Gérer les accès, l’actualisation des datasets, la supervision et le monitoring des rapports/dashboards. Transformation, Modélisation & Collaboration avec les Data Engineers : Contribuer activement à la transformation des données pour la constitution des modèles Silver et Gold. Participer à la conception, l’optimisation et l’industrialisation des modèles sémantiques (couche Gold). Travailler en étroite collaboration avec les Data Engineers pour garantir des modèles performants, robustes et bien documentés. Apporter une expertise sur les meilleures pratiques de modélisation (Power BI, DAX, Power Query) et de structuration des datasets analytiques. Qualité & Documentation : Appliquer les bonnes pratiques de modélisation, versioning, documentation et gouvernance des données. Former et accompagner les équipes internes sur Power BI, notamment sur la lecture et l’exploitation des modèles Silver et Gold. ).
LLM Engineer - Generative AI Developer

Qui sommes-nous ? • Komeet Technologies est née de l’envie de créer un Kollectif résolument dirigé vers l’excellence, au service de nos clients et de nos collaborateurs. L’ensemble des Komeeters crée le prochain champion du conseil et de l’intégration Data. • Rejoindre notre Kollectif c’est l’assurance de travailler aux côtés d’experts data ayant à cœur de partager leurs connaissances sur toute la chaine de valeur de la donnée, en interne et en externe. Cela s’illustre par exemple par cinq jours communautaires dé-staffés dédiés à l’échange, organisés et planifiés par les Komeeters eux-mêmes. • Rejoindre Komeet Technologies c’est adhérer à la notion d’engagement : celle des fondateurs envers tous les Komeeters et celle de l’ensemble du Kollectif vers nos clients et la réussite de leurs projets. • Les notions d’équilibre et de partage sont au cœur des valeurs de Komeet Technologies. Depuis sa création, une part des bénéfices est redistribuée à ses salariés à part égale et une semaine de congé supplémentaire est mise en place pour l’ensemble des collaborateurs. • Komeet Technologies, créée en 2021, te permettra de vivre la croissance et le développement d’une jeune ESN tout en y apportant ta contribution ! Nos offres : - Stratégie, Adoption & Agilité o Concevoir la stratégie data la plus appropriée à votre organisation en phase avec vos objectifs métiers. o Acculturer les équipes pour une adoption généralisée. o Déployer la méthode agile pour réussir vos projets Data - Gouvernance et Data Management o Mise en place de l’organisation , des compétences et des processus pour une valorisation optimale de votre patrimoine data - Architecture & Infra : o Concevoir, construire et industrialiser les plateformes Data et Big Data dans une démarche DevOps - Data Engineering : o Implémenter vos flux de données en batch ou en streaming , garantir la qualité de vos données - Analytics : BI, DataViz et DataScience o Mise en place des solutions BI adaptées, définir l’organisation, les process et les KPI facilitant la prise de décision .
DATA ENGINEER DATABRICKS/POWER BI SENIOR

Contexte : En tant que DATA ENGINEER spécialisé en traitement de données, vous intégrerez une équipe pour concevoir, réaliser, suivre et intégrer des travaux autour de la valorisation de la donnée. MISSIONS • Étude et rédaction d’US, en particulier sur des sujets liés à la data. • Maîtrise des bonnes pratiques de développement (utilisation de git, lisibilité du code, tests, intégration continue). • Fournir une vision complète des solutions data pour le programme. • La maitrise de DATABRICKS est impérative Résultats attendus et/ou livrables • Documentation et spécifications des développements à réaliser. La présentation interactive avec Power BI est à privilégiée • Analyse de données • Développements DATABRICKS • Schéma d’architecture data en lien avec les besoins • Rapports d’avancement : o Rapports hebdomadaires et mensuels sur l’état d’avancement du projet et des livrables, les points bloquants, les risques et les actions correctives. o Indicateurs associés propres au projet. • Documentation technique : o Documentation complète des solutions techniques mises en œuvre.
Expert Data Management & Gouvernance

En quelques mots Cherry Pick est à la recherche d'un Expert Data Management & Gouvernance pour un client dans le secteur de l'énergie Description 📌 Descriptif du Poste Nous recherchons un Expert Data Management & Gouvernance pour assurer le delivery run et les projets data sur les périmètres Clients (B2B & B2C) et MDM (Master Data Management) . Vous serez en charge de piloter les projets, de garantir la qualité et la sécurité des données et d’assurer la gouvernance des applications et plateformes data. L’anglais et le français bilingue sont requis pour ce poste. 🎯 Objectifs et Livrables Assurer le delivery des projets et activités data (run & build) Identifier et implémenter de nouveaux cas d’usage à forte valeur en Data Analytics & Data Science Collaborer avec les équipes SI, cybersécurité, conformité et métiers Être le référent Data des métiers et assurer un reporting régulier (COPIL) Superviser les prestataires TMA et garantir la bonne gouvernance des applications Piloter la mise en production et assurer la qualité et la sécurité des données Mettre en place des KPIs, gérer le budget et les risques des projets Participer à la définition et l’évolution du modèle de données Piloter la mise à jour du Data Catalogue et garantir la conformité avec le Data Contract Représenter TGITS auprès des fournisseurs et partenaires 📌 Livrables : Rapport hebdomadaire sur l’activité KPI de suivi du delivery (run & build) Documentation projet et maintenance
Analyste Business Data (BI) – Expertise en Data et Reporting
Nous recherchons un Analyste Business Data (BI) pour rejoindre notre équipe et accompagner le Global Product Owner dans l’analyse des besoins métier et la valorisation des données. Vous serez en charge de la rédaction des spécifications, de l’analyse et de la production de rapports, tout en garantissant la cohérence et la qualité des données. Vous travaillerez dans un environnement international et dynamique, en collaboration avec des équipes pluridisciplinaires utilisant les technologies Microsoft et Azure pour l’analyse et la gestion des données. Missions principales Analyse et spécifications métier Comprendre, recueillir et formaliser les besoins métier. Rédiger des spécifications fonctionnelles et techniques. Assurer la cohérence des données et challenger les règles métier définies par l’équipe Data. Production de rapports et analyses Développer et automatiser des analyses de données et des rapports via Excel et Power BI . Mettre en place des requêtes SQL pour explorer et structurer les données. Concevoir des dashboards interactifs facilitant la prise de décision. Support et coordination Assurer le suivi des analyses et livrables avec le Global Product Owner et les équipes techniques. Participer à la validation des règles de gestion des données et garantir leur implémentation correcte. Présenter et expliquer les analyses et résultats aux parties prenantes internes (via PowerPoint et autres outils de présentation). Compétences requises Techniques Minimum 2 ans d'expérience dans un rôle similaire, avec un focus sur l’analyse BI et la gestion des données. Excellente maîtrise de Power BI et Excel (tableaux croisés dynamiques, automatisation de reporting). Solides compétences en SQL pour l’interrogation et l’analyse des bases de données. Expérience avec des outils de gestion de projet (Jira, Azure DevOps). Connaissance d’un environnement Data Azure (Databricks, Data Analytics, Power BI). Interpersonnelles Esprit analytique et capacité à structurer des données complexes. Bonne capacité à communiquer et à vulgariser les résultats analytiques. Autonomie, rigueur et capacité à travailler en mode agile dans un environnement international. Esprit d’initiative et approche orientée solution . Anglais courant requis.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.