Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Databricks Solution Architect
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
INGENIEUR DATABRICKS (H/F)
En bref : Ingénieur Databricks (h/f) - Photovoltaïque - Montpellier (34) - CDI - Rémunération : 50-60KEUR fixe Adsearch, cabinet de recrutement spécialisé dans l'IT, recrute pour son client final leader dans le solaire photovoltaïque un Ingénieur Databricks (h/f). Au sein de la Digital Factory vous intégrez léquipe Build composée de 6 personnes. Votre rôle est de définir et concevoir les solutions afin de gérer le DataWarehouse. Vos missions : Participer aux choix des technologies de récupération et de traitement des données Gérer le DataWarehouse Travailler en collaboration avec léquipe Data Maintenir les solutions en place et développer de nouvelles solutions Technologies utilisées : Spark, Databricks, Python, Azure, Fast API, Power BI, Github,... Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Offre d'emploi
Data engineer Databricks
Objet de la prestation Nous recherchons Un Data Engineer expérimenté H/F pour accompagner la mise en production de "data products" sur une plateforme d'analytics Databricks. Le candidat idéal aura un profil de développeur Python orienté data avec une expérience sur le traitement de grande volumétrie de données. Le candidat devra être capable d’intéragir avec des datascientists et avoir une bonne compréhension des principes algorithmiques. Le travail consiste, entre autre, à reprendre et industrialiser des preuves de concept (PoCs) développées par notre centre de recherche et de les déployer sur la plateforme Databricks. Activités · Participer avec l’équipe technique à la mise en place de la gouvernance de la platforme · Collaborer (en anglais) avec les chercheurs pour comprendre les algorithmes existants · Implémenter les pipelines d’ingestion de données brut · Implémenter et optimiser les algorithmes de traitement en pyspark · Suivre les jobs en production
Mission freelance
Expert Modélisation Décisionnelle / BI - Databricks
Notre client recherche un Expert Modélisation Décisionnelle / BI (H/F) dans le cadre d'une longue mission. Intervenir sur la modélisation et l’architecture décisionnelle dans un contexte d’asset management, en s’appuyant sur Data Bricks et Power BI. - Comprendre les besoins en données selon les stratégies d’asset management. - Construire l’architecture dans Data Bricks avec l’accompagnement d’un expert. - Modéliser les données pour intégration dans Data Bricks. - Veiller à leur restitution en univers Power BI, en collaboration avec les experts internes. - Documenter les processus et assurer une transmission fluide des connaissances. Livrables Architecture décisionnelle sur Data Bricks. Modèles de données opérationnels et intégrés. Rapports ou dashboards dans Power BI
Mission freelance
Proxy Product Owner Data Senior - Cloud AWS, SQL, Databricks
Les compétences techniques attendues pour le Proxy PO DATA sont les suivantes : · Expérience des projets DATA et des produits DATA sur les plateformes « Cloud » · Une maîtrise du SQL & Databricks (notebook) · Une connaissance des environnements Cloud : AWS · Maîtrise des enjeux fonctionnels dans le domaine des transports Le PO et ses assistants récupèrent les besoins métiers, les priorisent et les rapportent à l’équipe de réalisation. Les PPO analysent et détaillent ces besoins sur les plans technico-fonctionnels afin de les rendre facilement interprétables par les développeurs. Ils sont en outre porteurs des besoins techniques et organisationnels de la DSI, qu’ils intégreront activement dans leurs réflexions. Les compétences fonctionnelles attendues sont les suivantes : · Conduite de projet agile · Expérience sur des projets DATA & BIG DATA avec des domaines fonctionnels différents · Expérience en Recette Data & Big Data
Offre d'emploi
Data Engineer Snowflake / Databricks
Notre société recherche pour son client une personne passionnée par la Data et motivée par des missions stimulantes dans un environnement dynamique et humain. Acquisition et transformation des données pour des entrepôts de données. Participation au développement avec des responsabilités proches d'un Product Owner (PO). Gestion de projet : structuration, suivi des coûts et des délais. Maintenance des systèmes et gestion des coûts OPEX. Utilisation de technologies modernes : Hana, Snowflake, Databricks, etc. Bac +5 Expérience confirmée (3-5 ans) en modélisation avec des outils comme Snowflake, Databricks, SAP HANA, BW ou Business Object. Connaissance d'outils complémentaires : Power BI, Qliksense, SAP Analytics Cloud (appréciée). Français et anglais courants (pour collaborer avec une équipe offshore). Autonomie chez les clients, avec une aspiration à prendre des responsabilités en gestion de projet. Rémunération attractive : A partir de 45k€. Avantages inclus : intéressement, PEE, repas, transport, mutuelle, etc. Ambiance et collaboration : missions en équipe, soirées entre collègues, faible turn-over. Évolution et accompagnement : revue de performance biannuelle, formations techniques et certifiantes (SAP). 📍 Lieu : Paris 12e 👉 Postulez maintenant pour rejoindre une structure humaine et innovante !
Mission freelance
Responsable d'Application SQL et python Databricks Poxer BI Cloud - Confirmé F/H
-Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. -Dans le cadre de cette gestion des MEV et des projets : o Participer aux phases d'études et cadrage des projets d’évolution de la solution o Proposer des solutions grâce à votre expertise fonctionnelle et technique o Piloter les travaux de chiffrage des évolutions demandées. o Gérer et Piloter les déploiements et les mises à jour de Mediarithmics oRédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) o Rédiger les contrats d’interface oRédiger les dossiers d’exploitation o Tenir à jour la documentation de l’application -Assurer et coordonner les activités de maintenance corrective et évolutive des applications et flux dont vous êtes responsable en ainsi que la contribution aux projets impactant vos applications. -Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. -Être garant de la qualité du service délivrée et du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application, faire le lien avec la production informatique, assurer le rapport des activités. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION : Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes Est responsable de l'évolution des applications dont il a la charge Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier MISE EN ŒUVRE DU SYSTÈME D'INFORMATION : Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service Réalise les spécifications de ses applications S'assure de la qualité attendue des développements réalisés Contribue à la stratégie de recette des projets sur son périmètre Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI?) : Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications Est responsable de la gestion documentaire des applications S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Mission freelance
Architecte Data plateforme et Cloud AWS (databricks, AWS...)
Au sein de l'équipe Data plateforme, notre client recherche un Architecte Data et Cloud AWS afin de compléter son équipe de 10 personnes. En ce sens vous aurez pour missions : Architecture de la plateforme DaTa basée sur Databricks et AWS Collaboration avce le tech dans les choix technique et la roadmap de la plateforme Intégration de nouvelles solutions data dans la data plateforme en focntion des besoins métiers (Gouvernance, ingestion, transformation, stockage, exposition, Analytics.) Build & Run de la plateforme et des modules data composants la plateforme Design des features de la plateforme permettant aux métiers de developper et exploiter des Data Products/Data Sets. Vous intégrerez dans vos propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considèrerez comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Maitrise en profondeur les concepts du Cloud AWS et notamment les services réseau, sécurité et IAM. Processus : 1 entretien Go - No Go
Offre d'emploi
Data engineer (DATABRICKS/Palantir)
Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)
Mission freelance
Data Scientist
Concernant le projet, le client est entrain de commercialiser des modules d'IA. Notre client recherche actuellement un Data Scientist maîtrisant : - Databricks (obligatoire) - Python (très bonne connaissance) - Compétences en gestion des utilisateurs et des droits - Gestion des utilisateurs - Gestion des droits - Plusieurs modèles de gestion de droit - Bonus : Connaissance de D3.js et des visualisations avec Databricks Ce consultant H/F doit également avoir une maitrise de l'environnement de l'immobilier ou de la banque/ assurance ou en crédit / finance.
Mission freelance
Data Architecte PowerBI
Dans le cadre d’un projet stratégique, notre client, acteur majeur dans le secteur des transports, recherche un consultant Data expérimenté pour renforcer son équipe. Vous interviendrez sur la conception et la mise en œuvre de solutions data, en étroite collaboration avec les équipes métiers et techniques. Vos principales missions seront : Maintien et optimisation des rapports existants. Conception et réalisation de nouveaux rapports avec modélisation de la base de données associée. Rédaction des spécifications des alimentations permettant à Databricks d’alimenter le modèle de données. Participation à l’architecture et à l’intégration des solutions data. Exemple de projet : création d’une application à destination des chauffeurs de bus pour leur permettre de vérifier leur ponctualité à chaque arrêt.
Offre d'emploi
Team Lead Data
Le pôle Data Accelerator & IT BI / Monitoring, positionné au sein de la DSI a pour rôle de mettre à disposition les outils et les données de qualité nécessaires aux usages des différents métiers et de leurs applicatifs. La/le Team Lead Data – Platform & BI coordonne directement les activités du pôle dédiées au développements de rapports BI à destination des métiers ainsi que le manager de la plateforme Data. Il est responsable de l’ensemble des livrables associés à ce domaine. Il gère la relation avec le métier. La/le Team Lead recherché intègrera le pôle Data Accelerator et IT BI / Monitoring de la DSI. Il aura en charge les activités de deux équipes : Plateforme : Ingestion, stockage et exposition de la data BI Monitoring : Restitution à des fins de Business Intelligence & Monitoring dans les outils adéquat (gestion en direct de cette activité) Il est en charge du suivi et de la livraison des évolutions répondant à un besoin métier BI de bout en bout sur la chaîne IT, c’est-à-dire sur le business delivery de son pôle dédié mais également avec les Core IT des autres pôles. Il est aussi responsable de la production sur les composants gérés. Ses missions principales sont : Sur le plan technique :> Expérience significative attendue Garantir les choix techniques structurants et arbitrer en cas de désaccord e s’appuyant sur les techleads et le responsable de plateforme Définir la vision technique et architecturale des produits développés sur le périmètre S’assurer de la diffusion et de la mise en œuvre des bonnes pratiques ( développement et process) sur son domaine d’expertise au sein de l’équipe mais aussi plus largement au sein de la DSI et des métiers Déterminer et fixer la capacité donnée aux US techniques Participer à la planification et à la définition des solutions à mettre en place Sur le plan organisationnel et managérial Suivre et organiser la charge / capacité à faire de l’équipe en s’appuyant sur le responsable de la plateforme sur son périmètre Animer les scrum master/chef de projet de son domaine S’assurer du staffing des différentes features teams de son domaine, en adéquation avec le besoin Sur le plan fonctionnel et méthodologique : Accompagner le développement des compétences de l’équipe et faire monter en compétence les membres les plus juniors Maitriser les différents éléments (roadmap métier, dépendances inter-applicatives, charges...) pour planifier ses développements Principales interactions Les autres équipes du pôle : le Data Office pour les question de gouvernance et de qualité des données manipulées, ainsi que la data science qui s’appuie sur les données de la plateforme. Les autres équipe IT métiers Les métiers et en particulier l’équipe Monitoring de la Direction des Opérations en charge du pilotage du monitoring côté métier Le data architect et les experts cloud AWS Databricks
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Offre d'emploi
Responsable d'Application Cloud et Data
Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région parisienne nous recherchons dans le cadre d’une mission idéalement le profil Suivant : Responsable d'application solution CDDP (Customer Data plateform) Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée d’une douzaine de collaborateurs ; 2 Gestionnaires d’application vous seront rattachés. Vous contribuerez aux nombreux projets qui impactent vos Applications. Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. Dans le cadre de cette gestion des MEV et des projets : Participer aux phases d'études et cadrage des projets d’évolution de la solution Proposer des solutions grâce à votre expertise fonctionnelle et technique Piloter les travaux de chiffrage des évolutions demandées. Gérer et Piloter les déploiements et les mises à jour de Mediarithmics Rédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) Rédiger les contrats d’interface Rédiger les dossiers d’exploitation Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. Vous justifiez d’une expérience d’au moins 5 ans en tant que Responsable Application d’une solution Data, de préférence CDP, ou dans une mission Etudes similaire. De formation supérieure en informatique, vous avez de solides compétences techniques et fonctionnelles, de préférence dans le monde du Retail ou de la Relation Clients. Idéalement, vous avez déjà été exposé à une CDP (Mediarithmics) et vous avez déjà eu l’expérience sur des problématiques de Data Quality. Vous avez les compétences et l’expérience dans les domaines suivants : Connaissance/ Maitrise de Databricks, Power BI, Phyton. Maitrise du requêtage SQL, dans l’analyse des résultats et dans la manipulation des fichiers. OTQL sera un vrai plus. Connaissance des problématiques d’intégration en flux et Web Service Connaissance du cycle de vie d'un projet (cycle en V ou agile) Très bonne connaissance data / cloud obligatoire SQL et python - Confirmé – Impératif/Cdp - Confirmé - Souhaitable Databricks - Confirmé – Souhaitable/PowerBI - Confirmé - Souhaitable Data eng / data science Notions (Secondaire) Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- Vehicules de société
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Calcul frais télétravail en étant propriétaire