Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Senior Data Engineer
• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes
Mission freelance
architecte pyspark - 3 mois
Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Mission freelance
Architecte IT transverse Infrastructure / Production
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Offre d'emploi
Data Engineer H/F
Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)
Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK
Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.
Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé
Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur
Mission freelance
Architecte cloud azure et Data
Nous recherchons pour notre client un architecte cloud azure et data pour une mission longue a Issy les moulineaux -Réflexion & brain storming sur l’architecture et l’ensemble des composants Azure data à mettre en place pour chaque cas d’usage -Redaction des DAT HLD LLD -Mise en place des PoC -Réalisation des documents d’architecture technique pour chaque région et chaque cas d’usage (Data Science) -Réalisation des architectures de migration de certaines applications vers le cloud Azure (SQL Sever, SSIS, Azure data factory, Azure SQL database, etc…)
Mission freelance
Devops/développeur Java
Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE
Mission freelance
DBA - Administrateur base de données
Tâches de la mission : - Intégrer les projets applicatifs - évolutions de version, de migration sur les applications - Proposer des solutions techniques, proposer des architectures data - Réaliser les scripts, participer la mise en œuvre - Former / accompagner les membres de l’équipe à la montée en compétence sur databrick Ex de projet : - Migrer les Databrick en privé - Mettre en place la sécurité à travers Unity Catalogue - Conseil sur le design des catalogues - Le requêtage à travers les EndPoint SQL - Support prod sur des incidents de performance essentiellement (Bases de données classiques et Databrick ) - Savoir trouver la ou les requêtes qui sont longues sur la base - Savoir trouver le plan d’exécution en cours, le comprendre et l’analyser - Bien connaitre le fonctionnement du moteur base de données, la gestion de la mémoire, l’exploitation des tables systèmes - Scripter / automatiser : Powershell ou scripts dans Databrick - Contrôle / supervision / remédiation sur des actions d’administration classique - Rédaction de Roadbook de résolution - Rédaction de procédures (how to do)
Mission freelance
Architecte data azure senior
Bonjour, Pour le compte de notre client, nous recherchons actuellement un Architecte data cloud Azure. Livrable n°1 : Cadrage et chiffrage des projets Accompagnement au cadrage du besoin auprès de nos clients Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin Lot 3 : Contribution au chiffrage global du projet Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution Formalisation des documents standards (DAL, DAT) Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI client. Livrable n°3 : Accompagner la prise en charge du build projet Assurer une passation aux équipes de réalisation Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…). Accompagner à la mise en robustesse et à l’identification des optimisations financières et techniques tout au long du projet.
Mission freelance
Data analyst
Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet
Mission freelance
Ingénieur Technique Data/MLOps
Contexte : Notre plateforme data science sur Azure est en construction, et nous avons besoin d'un renfort sur le rôle de Data/MLOps engineer. Le dataops a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. MISSIONS : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers En tant que data/mlops engineer sur notre plateforme CLAUD.IA.
Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark
Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…
Offre d'emploi
Data engineer Databricks
Le projet concerne une plateforme data d client permettant à tous les domaines producteurs de données de mettre à disposition dans un datalake de la donnée brute ou retravaillée. Cette plateforme data permet notamment de gérer les fonctions et données du périmètre métier de la Relation Réseau (SDSI) A ce titre elle permet de : - Intégrer et mettre en qualité des données brutes reçues des distributeurs - Mettre à disposition les données GRD exploitables pour toute utilisation : besoins portés par tous les domaines métiers de nature opérationnelle ou analytique
Mission freelance
Chef de Projet Orienté Data (Databricks) pour la Mise en Place d'une Composable CDP
Le Chef de Projet Orienté Data (Databricks) sera responsable de la supervision de la mise en place d'une Composable Customer Data Platform (CDP) en utilisant principalement la technologie Databricks. Il travaillera en étroite collaboration avec l'architecte DSI, un data architecte, et d'autres équipes techniques et métiers. Il s'assurera que la solution développée réponde aux besoins spécifiques de l'entreprise, en mettant l'accent sur l'amélioration de l'expérience client et l'activation de campagnes marketing. Évaluation et Documentation : Analyser et documenter les besoins fonctionnels et techniques pour la mise en place de la CDP. Objectifs et Périmètre : Établir et affiner les objectifs du projet ainsi que son périmètre, en tenant compte des travaux déjà réalisés. Priorisation des Use Cases : Collaborer avec les équipes métiers pour prioriser les use cases, notamment ceux axés sur l'amélioration de l'expérience client et l'activation des campagnes marketing.
Mission freelance
Data Engineer Sénior (F/H)
Participation au recueil de besoin auprès des utilisateurs finaux Expérience dans la BI/Data Experience architecture Lakehouse Expérience dans le développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitement avancé des données Conception et modélisation des données au niveau d'un DataWarehouse (SQL) Mise en place de traitement d'alimentation d'une base de données SQL (tables de faits, agrégats, procédures stockées, ..) Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Expérience en tant que Tech Lead Data Engineer Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés Conception et Développement : Concevoir, développer et maintenir des pipelines de données performants en utilisant Apache Spark avec Scala et Python. Implémenter des solutions de traitement de données en temps réel et en batch sur des environnements cloud, notamment Azure. Développer et optimiser des requêtes SQL complexes pour le traitement et l'analyse des données. Intégration de Données : Assurer l'intégration de données provenant de sources multiples, en optimisant leur transformation et leur stockage sur des plateformes cloud comme Azure. Travailler avec des outils comme Databricks pour gérer et analyser de grands volumes de données. Optimisation des Performances : Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une grande fiabilité. Utiliser des techniques de parallélisation et d'optimisation pour gérer des ensembles de données volumineux et complexes. Collaboration et Communication : Collaborer étroitement avec les équipes de Data Science, de BI, et d’Ingénierie pour comprendre les besoins métiers et traduire ces besoins en solutions techniques efficaces. Documenter les solutions techniques et fournir des rapports réguliers sur les performances des pipelines de données. Sécurité et Conformité : S'assurer que les solutions de traitement de données respectent les normes de sécurité et de confidentialité en vigueur. Implémenter des pratiques de gouvernance des données pour garantir la qualité et la conformité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes