Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data analyst
Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet
Mission freelance
Ingénieur Technique Data/MLOps
Contexte : Notre plateforme data science sur Azure est en construction, et nous avons besoin d'un renfort sur le rôle de Data/MLOps engineer. Le dataops a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. MISSIONS : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers En tant que data/mlops engineer sur notre plateforme CLAUD.IA.
Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark
Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…
Offre d'emploi
Data engineer Databricks
Le projet concerne une plateforme data d client permettant à tous les domaines producteurs de données de mettre à disposition dans un datalake de la donnée brute ou retravaillée. Cette plateforme data permet notamment de gérer les fonctions et données du périmètre métier de la Relation Réseau (SDSI) A ce titre elle permet de : - Intégrer et mettre en qualité des données brutes reçues des distributeurs - Mettre à disposition les données GRD exploitables pour toute utilisation : besoins portés par tous les domaines métiers de nature opérationnelle ou analytique
Mission freelance
Chef de Projet Orienté Data (Databricks) pour la Mise en Place d'une Composable CDP
Le Chef de Projet Orienté Data (Databricks) sera responsable de la supervision de la mise en place d'une Composable Customer Data Platform (CDP) en utilisant principalement la technologie Databricks. Il travaillera en étroite collaboration avec l'architecte DSI, un data architecte, et d'autres équipes techniques et métiers. Il s'assurera que la solution développée réponde aux besoins spécifiques de l'entreprise, en mettant l'accent sur l'amélioration de l'expérience client et l'activation de campagnes marketing. Évaluation et Documentation : Analyser et documenter les besoins fonctionnels et techniques pour la mise en place de la CDP. Objectifs et Périmètre : Établir et affiner les objectifs du projet ainsi que son périmètre, en tenant compte des travaux déjà réalisés. Priorisation des Use Cases : Collaborer avec les équipes métiers pour prioriser les use cases, notamment ceux axés sur l'amélioration de l'expérience client et l'activation des campagnes marketing.
Mission freelance
Data Engineer Sénior (F/H)
Participation au recueil de besoin auprès des utilisateurs finaux Expérience dans la BI/Data Experience architecture Lakehouse Expérience dans le développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitement avancé des données Conception et modélisation des données au niveau d'un DataWarehouse (SQL) Mise en place de traitement d'alimentation d'une base de données SQL (tables de faits, agrégats, procédures stockées, ..) Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Expérience en tant que Tech Lead Data Engineer Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés Conception et Développement : Concevoir, développer et maintenir des pipelines de données performants en utilisant Apache Spark avec Scala et Python. Implémenter des solutions de traitement de données en temps réel et en batch sur des environnements cloud, notamment Azure. Développer et optimiser des requêtes SQL complexes pour le traitement et l'analyse des données. Intégration de Données : Assurer l'intégration de données provenant de sources multiples, en optimisant leur transformation et leur stockage sur des plateformes cloud comme Azure. Travailler avec des outils comme Databricks pour gérer et analyser de grands volumes de données. Optimisation des Performances : Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une grande fiabilité. Utiliser des techniques de parallélisation et d'optimisation pour gérer des ensembles de données volumineux et complexes. Collaboration et Communication : Collaborer étroitement avec les équipes de Data Science, de BI, et d’Ingénierie pour comprendre les besoins métiers et traduire ces besoins en solutions techniques efficaces. Documenter les solutions techniques et fournir des rapports réguliers sur les performances des pipelines de données. Sécurité et Conformité : S'assurer que les solutions de traitement de données respectent les normes de sécurité et de confidentialité en vigueur. Implémenter des pratiques de gouvernance des données pour garantir la qualité et la conformité des données.
Mission freelance
Un Chef de projet oriente data (DATABRICKS) sur Lyon
Responsabilités Principales : 1. Analyse des Besoins et Cadrage du Projet : -Évaluer et documenter les exigences fonctionnelles et techniques de l'organisation pour la mise en place de la CDP -Établir et affiner les objectifs du projet ainsi que son périmètre, en tenant compte des travaux déjà réalisés et documentés 2. Planification du Projet : -Déployer un plan de projet détaillé avec des échéances claires et des indicateurs de performance précis -Identifier les ressources nécessaires (humaines, techniques, financières) pour la réalisation du projet - Définir les risques du projet et élaborer des stratégies d'atténuation 3. Gestion du Projet : -Coordonner les différentes équipes impliquées dans le projet (Data, IT, Marketing, CX,..) -Suivre l'avancement du projet et ajuster le plan selon les besoins -Animer les comités de pilotages (COPIL) -Suivre et ajuster les charges des contributeurs -Définir les critères de Go-NoGo et de sortie d'hypercare 4. Mise en Œuvre : -Superviser l’intégration des données par les différentes équipes vers le nouveau système -Assurer le suivi des tests du nouvel outil pour garantir qu'il fonctionne comme prévu 5. Formation et Accompagnement des Utilisateurs : -Préparer avec nos experts et partenaires des programmes de formation pour les utilisateurs du nouvel outil -Élaborer des guides d'utilisation et des documents de support -Offrir un soutien continu après la mise en œuvre pour résoudre les problèmes et répondre aux questions -Définir et mettre en œuvre le processus d'hypercare et de Run 6. Assurance Qualité et Conformité : -En collaboration avec le DPO, instaurer des procédures pour garantir l'intégrité et la confidentialité des données -Superviser l'établissement des cahiers de recette (quantitatifs et qualitatifs) sur l'ensemble des processus migrés par les métiers et les accompagner dans leur rédaction -Assurer la bonne complétion des PV de recettes -Suivre et ajuster les charges des contributeurs -Définir les critères de Go-NoGo et de sortie d'hypercare 8. Clôture du Projet: -Assurer une transition fluide vers les opérations régulières avec le nouvel outil -Réaliser une revue de projet pour identifier les leçons apprises et les meilleures pratiques -Préparer un rapport final de projet à présenter à la direction
Mission freelance
QA TEST AUTOMATION - DATABRICKS/ POWER BI
Nous recherchons un(e) QA TEST AUTOMATION pour rejoindre une équipe dynamique au coeur de Paris dans le domaine de la banque, assurance et marchés financiers. Date de démarrage: ASAP - 2 septembre 2024 Lieu: Paris Client: Banque / Assurance / Marché financiers Durée de la mission: Long terme Expérience: Databricks (SCALA et ou Python) / Power BI / ETL TALEND Solide expérience sur Selenium Certification ITSQB Connaissances de l'environnement Azure un réel atout Anglais courant exigé ca équipe internationale et entretien en anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes