Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory à Paris
Développeur Technique junior / SQL / Azure Data Factory / API Rest
Dans le cadre du renforcement de son équipe IT, notre client recherche un Développeur SQL Junior 🎯 Objectif de la mission : Sous la responsabilité directe du Group Applications Manager , vous interviendrez sur le maintien en conditions opérationnelles et l'évolution de plusieurs solutions logicielles métiers (ticketing, F&B, réservation, gestion d’événements…). Vos Tâches principales : Administration des logiciels métiers (SAS) Suivi des demandes en coordination avec les équipes locales Analyse et résolution des incidents techniques Lien avec les éditeurs de logiciels Implémentation de nouvelles fonctionnalités (analyse, conception, développement) Tests et gestion des montées de version Vérification et maintenance des traitements automatiques Support fonctionnel et technique auprès des équipes terrain
Ingénieur Azure Databricks

Offre de Mission Freelance : Ingénieur MLOps Azure Databricks (Intermédiaire) 📍 Localisation : Paris (présence sur site souhaitée) 📅 Contrat : Freelance 💼 Expérience : 2 à 5 ans d'expérience en MLOps À propos de nous Le client est une entreprise innovante spécialisée dans le Cloud, avec une forte orientation sur l’intelligence artificielle et le big data. Afin de renforcer notre équipe technique, nous recherchons un Ingénieur MLOps Azure Databricks pour une mission freelance, afin de contribuer à la gestion et à l’optimisation de nos pipelines de machine learning sur Azure. Missions principales Développement, gestion et optimisation de pipelines MLOps utilisant Azure Databricks et les services associés (Azure Data Lake, Azure ML, etc.). Automatisation des processus de déploiement des modèles de machine learning en production. Intégration des pratiques CI/CD spécifiques aux environnements ML dans un contexte Azure. Mise en place de solutions d’observabilité et de monitoring des modèles (Azure Monitor, Log Analytics). Collaboration avec les équipes Data et DevOps pour assurer l’intégration continue et l’évolution des modèles. Optimisation de la performance des modèles et gestion des coûts sur la plateforme Azure.
Azure Data Engineer

Nous recherchons un ingénieur Azure Data pour rejoindre l'équipe Advanced Analytics Service Delivery Team. L'objectif de l'Advance Analytics SDT est de fournir des capacités autour de l'intégration et de l'ingénierie des données et du déploiement de modèles pour les cas d'utilisation prioritaires. L'équipe est composée d'ingénieurs en données, d'experts en la matière, d'architectes de services, d'ingénieurs DevOps, de testeurs, de propriétaires de produits techniques et de Scrum Master. La hiérarchisation du carnet de commandes est effectuée en collaboration avec les propriétaires de produits commerciaux sur la base du pipeline de cas d'utilisation. L'équipe soutient la Cloud Analytics Platform pour créer des capacités autour de solutions numériques et d'analyses avancées. La plateforme héberge le lac de données de l'entreprise du client où les données IoT provenant des équipements des usines des clients dans le monde entier sont collectées et complétées par des sources de données internes. L'équipe utilise ses capacités d'ingénierie des données pour obtenir des informations et générer des solutions aux problèmes des clients. En tant que Data Engineer, vous devrez : - Identifier les ensembles de données nécessaires pour chaque cas d'utilisation en collaboration avec les équipes sources et les analystes commerciaux - Intégrer les données dans le lac de données de l'entreprise - Déplacer et transformer les données du lac de données vers la base de données SQL ou le serveur de données SQL, en fonction du cas d'utilisation. - Implémenter la logique en fonction des besoins de l'entreprise (par exemple, définition des KPI, etc.) - Collaborer avec d'autres équipes informatiques pour créer une solution complète autour d'un cas d'utilisation. - Gestion du cycle de vie des cas d'utilisation livrés Qui êtes-vous ? - Expérience avec la plateforme Microsoft Azure (Data Lake, Data Factory, Databricks, Data Warehouse, Azure DevOps) - Expérience dans la modélisation de bases de données et d'informations - Expérience avec la manipulation de données en utilisant SQL et Python (R est un bonus) - Expérience avec Apache Spark Framework (de préférence PySpark - Python) - Expérience avec des langages de script tels que Python et PowerShell (C#/. NET) - Expérience de l'intégration de systèmes et de services - Expérience de la consommation d'API REST - Expérience du développement d'API REST (de préférence avec Flask - Python) - Expérience des conteneurs Docker
Data Scientist - Azure AI Foundry

Description du Poste : Nous recherchons un Data Scientist pour concevoir et développer un modèle de recommandation de produits basé sur les données clients dans le cadre d'un Proof of Concept (POC). Ce projet s'appuie sur Python et les solutions d'intelligence artificielle d'Azure AI Foundry. Responsabilités : Collecter, nettoyer et analyser les données clients pertinentes pour le modèle de recommandation. Concevoir et développer un algorithme de recommandation personnalisé (collaboratif, contenu-based, hybride). Mettre en œuvre des techniques de Machine Learning et d'apprentissage profond pour optimiser les recommandations. Intégrer le modèle aux services Azure AI Foundry pour déploiement et scalabilité. Tester et valider les performances du modèle avec des métriques adéquates (précision, recall, NDCG, etc.). Collaborer avec les équipes Data Engineering et IT pour l'industrialisation future du modèle. Documenter le travail réalisé et présenter les résultats aux parties prenantes. Compétences Recherchées : Expérience en Data Science et Machine Learning appliqué aux systèmes de recommandation. Maitrise de Python et des bibliothèques associées (Scikit-learn, TensorFlow/PyTorch, Pandas, NumPy). Bonne connaissance des modèles de filtrage collaboratif, basé sur le contenu et hybrides. Expérience avec Azure AI Foundry et les services cloud d'Azure (ML Studio, Data Factory, etc.). Capacité à travailler sur des données clients tout en respectant les contraintes de confidentialité et de conformité. Compétences en déploiement de modèles de ML en environnement cloud. Capacité à présenter des concepts complexes à un public non technique. Profil : Bac+5 en Data Science, Informatique, Mathématiques appliquées ou domaine connexe. Expérience significative en Data Science, idéalement sur des projets de recommandation. Esprit analytique et rigoureux, capable de travailler en mode projet. Expérience avec des outils de visualisation de données est un plus (Power BI, Tableau, etc.). Localisation : Flexible (Remote/Hybride possible) Durée : Mission temporaire pour un POC, avec possibilité d'évolution selon les résultats. Si vous êtes passionné par la Data Science et souhaitez contribuer à un projet innovant dans un environnement stimulant, n'hésitez pas à postuler !
Développeur / Chargé d'Applications H/F

En tant que Développeur Applications H/F, vous aurez les responsabilités suivantes : Développer et maintenir des applications technologiques innovantes pour améliorer l'expérience client ; Collaborer avec l'équipe de technologie pour comprendre les besoins de l'entreprise et traduire ces besoins en solutions applicatives ; Effectuer des tests rigoureux pour s'assurer de la fonctionnalité et de la fiabilité des applications ; Résoudre les problèmes techniques de manière efficace et rapide ; Participer activement aux réunions d'équipe et partager les connaissances et les meilleures pratiques avec les collègues ; Se tenir au courant des dernières tendances et innovations technologiques dans le secteur du Loisir, Voyage et Tourisme ; Respecter les délais et les budgets établis ; Assurer la documentation appropriée de toutes les phases de développement de l'application.
Data Engineer

- Migrer les données existantes de Redshift vers Snowflake à l'aide de DBT et d'Airflow. - Collaborer avec des équipes transverses pour traduire les exigences métier en solutions techniques. - Concevoir et mettre en œuvre des pipelines de données, des processus ETL et des modèles de données. - Automatiser l'ingestion, la transformation et la validation des données grâce aux technologies Azure (Data Factory, Functions, Databricks). - Développer des procédures stockées, des vues et des fonctions SQL Server pour l'accès aux données et le reporting. - Optimiser les performances de l'entrepôt de données et identifier les axes d'amélioration. - Mettre en œuvre des politiques de gouvernance des données pour garantir l'exactitude, l'exhaustivité et la sécurité. - Documenter les processus et les bonnes pratiques d'ingénierie des données. - Se tenir informé des tendances du secteur et des technologies émergentes en matière d'ingénierie des données et de cloud computing.
CHEF DE PROJET BI/AZURE - Paris

Dans le cadre d'un projet chez l'un de nos clients grands comptes, nous sommes à la rechercher d'un Chef de projet BI/Azure . Vous prendrez en charge la la mise en place et la gestion de nouveaux de projets data & analytics : Vous serez responsable de la gestion des projets liés aux données clients : identification des parties prenantes, recueil des besoins, définition de la solution technique, estimation de la charge de travail, coordination avec les autres équipes, définition des feuilles de route, suivi opérationnel du déploiement et validation des livrables. Avec les équipes vous validez et maintenez l'environnement d'exploration et d'exploitation analytique. Vous serez en charge d’identifier et de qualifier les use cases avec les équipes business, établir des priorités, planifier et surveiller la livraison opérationnelle. Vous serez également en charge de définir et déployer de nouvelles approches pour exploiter les données clients, et de mener des analyses exploratoires sur de nouvelles données. Vous proposerez de nouveaux leviers/use cases basés sur des méthodologies d'analyse et de science des données. Vous assurerez la qualité et la cohérence des données clients dans tous les systèmes.
Développeur Fullstack Java/VueJS - Projet Innovant - IDF (H/F)

Nous recherchons un Développeur Fullstack orienté Frontend dans le cadre d'un renforcement de notre département IT. Ce poste de Développeur Fullstack Java/Spring Boot & VueJS est ouvert dans le cadre de notre expansion et de l'intégration de nouveaux projets à fort impact stratégique. Vous travaillerez au sein d'une équipe agile de taille humaine, en interaction constante avec les experts backend et les designers UX/UI, pour améliorer nos applications et développer de nouvelles fonctionnalités. ## Missions Développer et maintenir les interfaces utilisateur en utilisant VueJS et PrimeVue. Concevoir et optimiser l'architecture backend avec Java, Spring Boot et le JPA pour assurer la robustesse et la scalabilité des applications. Assurer l'intégrité et la performance des données à l'aide de PostgreSQL. Maintenir la cohérence des applications en intégrant les messages via RabbitMQ. Participer aux processus de déploiement continu et d'intégration continue avec GitLab. Proposer des améliorations continues en vous basant sur une veille technologique proactive. ## Stack technique ### À maîtriser Backend : Java (Spring Boot, Spring AOP, Java Persistence API) Frontend : VueJS 3.0, PrimeVue, Typescript CI/CD : Gitlab Base de données : PostgreSQL Bus de messagerie : RabbitMQ ### Environnement technique global Technologies Web : HTML5, CSS3, Javascript ECMA6+ Outils de tests : Jest, Vitest, JUnit Architectures microservices et conteneurisation : Docker, Kubernetes Librairies cartographiques : MapLibre Cloud : Azure, Terraform, Ansible Outils Data : PowerBI, Azure Data Factory
Developpeur fullstack

Nous recherchons un Développeur Fullstack freelance avec une forte orientation Frontend , pour commencer à partir de mai 2025. Le profil devra être responsable du développement frontend et backend, de l’exploitation, du support, de la maintenance et de la sécurité des applications. Il assurera l'optimisation, la cohérence des données et la performance des plateformes, tout en proposant des améliorations continues et en effectuant une veille technologique. Compétences prioritaires attendues : Backend : Java (Spring Boot, Spring AOP, Java Persistence API) – compétence dominante Frontend : VueJS 3.0 avec PrimeVue, Typescript CI/CD : Maîtrise de Gitlab Base de données : PostgreSQL Bus de messagerie : RabbitMQ Compétences complémentaires appréciées : Maîtrise des langages Web (HTML5, CSS3, Javascript ECMA6+). Connaissances des outils de tests (Jest, Vitest, JUnit). Expérience en architectures microservices et conteneurisées (Docker, Kubernetes). Connaissance des librairies de visualisation cartographique (ex : MapLibre). Bonne maîtrise des méthodes agiles (Scrum) et des outils collaboratifs (Jira, Git). Environnement technique actuel : Frontend : Vue.JS 2/3, Typescript, Vuetify, Vuex Backend : C#, .NetCore, Entity Framework, Dapr Bases de données : SQL Server 2019, PostgreSQL, MongoDB, Redis Cartographie : ESRI JS, MapLibre, Leaflet Cloud : Azure, Terraform, Ansible, Kubernetes, Docker Bus de messagerie : RabbitMQ, Azure Service Bus Outils Data : PowerBI, Azure Data Factory, FME/GTF Stacks à venir : VueJS 3, PrimeVue, Pinia, Java SpringBoot, Kafka, GeoServer, PostGIS, Databricks, Spark, Keycloak, AWS.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Data Engineer Azure

Cherry Pick est à la recherche d'un Data Engineer Azure pour l'un de mes clients dans le secteur de l'énergie. Missions : Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'nteraction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Compétences requises : Expertise en Microsoft Azure et Azure Data Factory Avancé en Databricks et Data Engineering Expertise en Terraform et Docker Bonne connaissance de la méthodologie Agile Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3). Connaissance des pratiques du software craftsmanship. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Consultant Power BI / Databricks

Bonjour, Pour le compte de notre client, nous recherchons un consultant Power BI. En tant que Data Engineer spécialisé en traitement de données , vous intégrerez une équipe dédiée à la valorisation des données. Vous serez responsable de la conception, du développement et du suivi des solutions data en environnement Azure et Databricks . Missions principales 🔹 Analyse et formalisation des besoins : Rédaction des User Stories (US) en collaboration avec les équipes métiers. 🔹 Développement et bonnes pratiques : Implémentation des pipelines de données sous Databricks , en assurant un code propre, testé et versionné avec Git . 🔹 Architecture et intégration : Conception des schémas data en accord avec les besoins fonctionnels et techniques. 🔹 Visualisation et reporting : Production de tableaux de bord interactifs sous Power BI . 🔹 Suivi et documentation : Rédaction des spécifications techniques et des rapports d’avancement (hebdomadaires et mensuels). 🔹 Monitoring et amélioration continue : Mise en place des indicateurs de suivi et gestion des risques pour optimiser les performances des solutions. Livrables attendus ✅ Documentation et spécifications techniques des développements. ✅ Analyses de données et conception d’architectures adaptées. ✅ Pipelines de transformation et d’intégration sous Databricks . ✅ Tableaux de bord et visualisation des données avec Power BI . ✅ Rapports d’avancement et suivi des KPIs du projet. Compétences requises 📌 Techniques : Cloud & Data : Bonne maîtrise de Databricks, Azure (Data Factory, Data Lake, Synapse Analytics, etc.) Développement : Expérience avancée en SQL, Python, PySpark Reporting & BI : Maîtrise de Power BI pour la création de dashboards Orchestration & CI/CD : Connaissance des outils GitLab, Jenkins, VTOM, Step Function Systèmes & Supervision : Familiarité avec Linux, Windows, Kubernetes, Datadog, Kibana, Grafana Gestion de projet agile : Expérience avec Jira, Trello, ServiceNow
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.