UCASE CONSULTING — Offres 16

Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.
Freelance
CDI

CONSULTANT DATASTAGE

UCASE CONSULTING

Contexte de la mission : Dans le cadre d'un renfort équipe, nous recherchons un profil Maîtrise d’Ouvrage BI avec une forte expertise en entrepôts de données. Le candidat interviendra sur des projets de conception, d’alimentation et d’évolution d’un entrepôt de données. Missions principales : Participer à la modélisation d’un entrepôt de données en lien avec les besoins métiers Contribuer à la construction, à l’alimentation et à l’évolution de l’entrepôt de données Assurer la cohérence des données et la qualité des livrables Collaborer étroitement avec les équipes techniques et métiers Traduire les besoins fonctionnels en spécifications détaillées Suivre la mise en œuvre des évolutions et garantir leur conformité Profil recherché : Expérience significative en maîtrise d’ouvrage BI, idéalement en environnement bancaire Très bonne maîtrise des entrepôts de données et de leur modélisation Très bonne expertise Datastage Expérience concrète dans la construction et la gestion d’un entrepôt de données Connaissance des enjeux de la donnée dans le secteur bancaire (atout) Bonne capacité de communication et esprit d’analyse

Démarrage Dès que possible
Durée 6 mois
Salaire 27k-64k €⁄an
TJM 400-590 €⁄j
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performances Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DATA ENGINEER GCP

UCASE CONSULTING

Je recherche pour un de mes clients un Data Engineer GCP / Python : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data • Réaliser le développement dans les environnements technologiques attendus • Rédiger la documentation technique • Assurer un support aux testeurs Livrables principaux : • Réaliser du code applicatif • Rédiger les documentations techniques liés à ta solution, • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Architecte Solution Intégration applicative

UCASE CONSULTING

Bonjour, Pour le compte de notre client nous recherchons un architecte solution afin de mettre en place des solution d'intégration applicative opérationnelle au sein du SI. Missions : - Il participe à la définition de l'architecture de référence ; - Il propose des architectures techniques en réponse à des besoins exprimés par le métier, dont il vise la satisfaction avant tout. Il participe aux chiffrages détaillés des solutions proposées ; - Il analyse et documente les solutions existantes et à venir et définit des plans d'amélioration continue en termes de modélisation, de capacité, de performance, de coût et de sécurité ; - Il suit les avancées technologiques et propose si besoin des évolutions visant à améliorer l'efficacité du SI. Contexte technologique : - Informatica IDMC (MDM / API / ETL) / PowerCenter ; - Technologies Microsoft Azure (Fabric / DBaaS / Event Hubs...). Exemple de potentiels sujets à adresser : - Projets renouvellement CRM / Refonte de la facturation clients ;

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-68k €⁄an
TJM 580-900 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DATA ANALYST SAS

UCASE CONSULTING

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant SAS : Missions : Analyser le portefeuille à migrer : rapprocher les flux reçus des données présentes dans le SI Mise en qualité des fichiers Analyser les données et préparer la transcodification des fichiers entre l’ancien et le nouveau système Proposer des axes de fiabilisation des données et de rationalisation des produits Concevoir et paramétrer les produits, les garanties et les tarifs dans l’outil cible Qualifier et recetter les données suite aux opérations de migration dans le SI cible Recette statique et dynamique Recetter la bonne alimentation de l’ensemble du SI Assurer le reporting de ses travaux (planification, avancement, alerte) Participer / animer les ateliers avec le métier Rédiger la documentation permettant la conduite du changement Compétences : Maîtrise d’Excel et de SAS indispensable Une connaissance fonctionnelle de l’assurance de personne est nécessaire

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Lieu Paris, France
Freelance
CDI

CONSULTANT SAS

UCASE CONSULTING

Nous recherchons un Consultant Junior ou Confirmé (environ 5 ans d’expérience) pour intervenir sur un périmètre riche et transverse, au sein d’un acteur majeur du secteur santé / prévoyance. 🎯 Vos missions principales : Absorption de tâches opérationnelles en soutien des équipes existantes Gestion du Run : surveillance, maintenance et optimisation des flux de données Appui à l’avancement de projets métiers et SI Rationalisation et nettoyage de la donnée Traitement des anomalies et remontée au métier avec une logique d’amélioration continue 🛠️ Compétences techniques recherchées : Maîtrise de SAS (impératif) Connaissance fonctionnelle du secteur santé / prévoyance Une maîtrise de Power BI serait un gros plus 🔍 Profil recherché : Consultant polyvalent, capable de balayer un scope large, de la technique à la coordination métier Force de proposition, autonome, rigoureux et doté d’un bon relationnel Envie d’évoluer dans un contexte stimulant mêlant Run et projets

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DEVELOPPEUR INFORMATICA PL/SQL

UCASE CONSULTING

Je recherche pour un de mes clients, un consultant Informatica PL/SQL : En tant que Consultant Informatica avec une forte compétence PL/SQL , vous aurez pour mission de : Analyse des besoins clients : Comprendre les besoins métiers et les spécifications techniques. Participer à la rédaction des cahiers des charges et des documents techniques. Conception et développement de solutions Informatica : Conception, développement et optimisation des processus ETL avec Informatica PowerCenter. Création et gestion des flux de données (extraction, transformation, chargement) en utilisant Informatica. Développement PL/SQL : Écrire et optimiser des scripts PL/SQL pour manipuler les données, réaliser des traitements batch et effectuer des intégrations complexes. Assurer la performance et l’optimisation des requêtes SQL et PL/SQL. Tests et validation : Réaliser les tests unitaires et d’intégration pour garantir la qualité des livrables. Déboguer, corriger les anomalies et proposer des améliorations continues. Maintenance et support : Assurer la maintenance des applications en production et proposer des améliorations. Analyser et résoudre les incidents techniques liés à Informatica et aux bases de données. Accompagnement et formation : Apporter un support technique aux équipes internes et aux clients. Former et conseiller les utilisateurs sur les bonnes pratiques de l’outil Informatica et des bases de données.

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Toulouse, Occitanie
Suivant
1

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous