Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Databricks Solution Architect
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Expert Modélisation Décisionnelle / BI - Databricks
Notre client recherche un Expert Modélisation Décisionnelle / BI (H/F) dans le cadre d'une longue mission. Intervenir sur la modélisation et l’architecture décisionnelle dans un contexte d’asset management, en s’appuyant sur Data Bricks et Power BI. - Comprendre les besoins en données selon les stratégies d’asset management. - Construire l’architecture dans Data Bricks avec l’accompagnement d’un expert. - Modéliser les données pour intégration dans Data Bricks. - Veiller à leur restitution en univers Power BI, en collaboration avec les experts internes. - Documenter les processus et assurer une transmission fluide des connaissances. Livrables Architecture décisionnelle sur Data Bricks. Modèles de données opérationnels et intégrés. Rapports ou dashboards dans Power BI
Mission freelance
Architecte Data plateforme et Cloud AWS (databricks, AWS...)
Au sein de l'équipe Data plateforme, notre client recherche un Architecte Data et Cloud AWS afin de compléter son équipe de 10 personnes. En ce sens vous aurez pour missions : Architecture de la plateforme DaTa basée sur Databricks et AWS Collaboration avce le tech dans les choix technique et la roadmap de la plateforme Intégration de nouvelles solutions data dans la data plateforme en focntion des besoins métiers (Gouvernance, ingestion, transformation, stockage, exposition, Analytics.) Build & Run de la plateforme et des modules data composants la plateforme Design des features de la plateforme permettant aux métiers de developper et exploiter des Data Products/Data Sets. Vous intégrerez dans vos propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considèrerez comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Maitrise en profondeur les concepts du Cloud AWS et notamment les services réseau, sécurité et IAM. Processus : 1 entretien Go - No Go
Offre d'emploi
Data engineer (DATABRICKS/Palantir)
Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)
Mission freelance
Data Scientist
Concernant le projet, le client est entrain de commercialiser des modules d'IA. Notre client recherche actuellement un Data Scientist maîtrisant : - Databricks (obligatoire) - Python (très bonne connaissance) - Compétences en gestion des utilisateurs et des droits - Gestion des utilisateurs - Gestion des droits - Plusieurs modèles de gestion de droit - Bonus : Connaissance de D3.js et des visualisations avec Databricks Ce consultant H/F doit également avoir une maitrise de l'environnement de l'immobilier ou de la banque/ assurance ou en crédit / finance.
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Offre d'emploi
Responsable d'Application Cloud et Data
Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région parisienne nous recherchons dans le cadre d’une mission idéalement le profil Suivant : Responsable d'application solution CDDP (Customer Data plateform) Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée d’une douzaine de collaborateurs ; 2 Gestionnaires d’application vous seront rattachés. Vous contribuerez aux nombreux projets qui impactent vos Applications. Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. Dans le cadre de cette gestion des MEV et des projets : Participer aux phases d'études et cadrage des projets d’évolution de la solution Proposer des solutions grâce à votre expertise fonctionnelle et technique Piloter les travaux de chiffrage des évolutions demandées. Gérer et Piloter les déploiements et les mises à jour de Mediarithmics Rédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) Rédiger les contrats d’interface Rédiger les dossiers d’exploitation Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. Vous justifiez d’une expérience d’au moins 5 ans en tant que Responsable Application d’une solution Data, de préférence CDP, ou dans une mission Etudes similaire. De formation supérieure en informatique, vous avez de solides compétences techniques et fonctionnelles, de préférence dans le monde du Retail ou de la Relation Clients. Idéalement, vous avez déjà été exposé à une CDP (Mediarithmics) et vous avez déjà eu l’expérience sur des problématiques de Data Quality. Vous avez les compétences et l’expérience dans les domaines suivants : Connaissance/ Maitrise de Databricks, Power BI, Phyton. Maitrise du requêtage SQL, dans l’analyse des résultats et dans la manipulation des fichiers. OTQL sera un vrai plus. Connaissance des problématiques d’intégration en flux et Web Service Connaissance du cycle de vie d'un projet (cycle en V ou agile) Très bonne connaissance data / cloud obligatoire SQL et python - Confirmé – Impératif/Cdp - Confirmé - Souhaitable Databricks - Confirmé – Souhaitable/PowerBI - Confirmé - Souhaitable Data eng / data science Notions (Secondaire) Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Offre d'emploi
Responsable d'application H/F
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi ! Au sein d’acteurs majeurs du secteur Banque, Assurance, Médias ou Grande distribution, tu participeras à des projets d’envergure : Suivi de l'avancement des développements de l'application, tu réaliseras Des documents d'exploitation , tu rédigeras Des nouvelles solutions, tu proposeras Pilotage des travaux de chiffrage, tu feras Des projets d'évolutions, tu réaliseras
Offre d'emploi
Data Engineer Senior H/F
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail ou Médias et service, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Mission freelance
Architecte Data technique
Nous recherchons un(e) Architecte Data Technique pour rejoindre les équipes de notre client. Responsabilités : Concevoir et architecturer des solutions de données en utilisant les meilleures pratiques et les technologies de pointe. Collaborer avec les équipes de développement et les parties prenantes pour comprendre les besoins en données et proposer des solutions adaptées. Assurer l’intégration et la gestion des données à grande échelle. Optimiser les performances des systèmes de données et garantir leur fiabilité et leur sécurité.
Mission freelance
Data Analyst 5-8 ans
Nous recherchons un ANALYTICS/WEB ENGINEER pour le compte d'un grand client des secteurs de médias en place parisienne. Vous aurez à les accompagner sur le produit d'Activation au sein de la DATECH, avec un fort penchant sur les problématiques publicitaires. Vous devrez : - Gérer la DMP (Mediarithmics) en mettant à jour les collectes dans celle-ci, assister sur la création de segments et vérifier la bonne diffusion de ces derniers - Prendre en main les contraintes de ciblage sur les différents environnements en collaboration avec les différentes entité de DATECH et PUB - Travailler sur la mise en place de partenariats datas avec des annonceurs / data providers - Aider à la mise en place de tests publicitaires avec les équipes L'environnement technique de l'équipe : Snowflake, Databricks, Airflow, Azure DevOps, Mediarithmics, Liveramp
Mission freelance
Data Ingénieur Cloud
Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)
Mission freelance
Consultant Data Engineer
Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- Calcul frais télétravail en étant propriétaire
- Vehicules de société