UCASE CONSULTING — Offres 16
CONSULTANT DATASTAGE

Contexte de la mission : Dans le cadre d'un renfort équipe, nous recherchons un profil Maîtrise d’Ouvrage BI avec une forte expertise en entrepôts de données. Le candidat interviendra sur des projets de conception, d’alimentation et d’évolution d’un entrepôt de données. Missions principales : Participer à la modélisation d’un entrepôt de données en lien avec les besoins métiers Contribuer à la construction, à l’alimentation et à l’évolution de l’entrepôt de données Assurer la cohérence des données et la qualité des livrables Collaborer étroitement avec les équipes techniques et métiers Traduire les besoins fonctionnels en spécifications détaillées Suivre la mise en œuvre des évolutions et garantir leur conformité Profil recherché : Expérience significative en maîtrise d’ouvrage BI, idéalement en environnement bancaire Très bonne maîtrise des entrepôts de données et de leur modélisation Très bonne expertise Datastage Expérience concrète dans la construction et la gestion d’un entrepôt de données Connaissance des enjeux de la donnée dans le secteur bancaire (atout) Bonne capacité de communication et esprit d’analyse
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performances Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DATA ENGINEER GCP

Je recherche pour un de mes clients un Data Engineer GCP / Python : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data • Réaliser le développement dans les environnements technologiques attendus • Rédiger la documentation technique • Assurer un support aux testeurs Livrables principaux : • Réaliser du code applicatif • Rédiger les documentations techniques liés à ta solution, • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Architecte Solution Intégration applicative

Bonjour, Pour le compte de notre client nous recherchons un architecte solution afin de mettre en place des solution d'intégration applicative opérationnelle au sein du SI. Missions : - Il participe à la définition de l'architecture de référence ; - Il propose des architectures techniques en réponse à des besoins exprimés par le métier, dont il vise la satisfaction avant tout. Il participe aux chiffrages détaillés des solutions proposées ; - Il analyse et documente les solutions existantes et à venir et définit des plans d'amélioration continue en termes de modélisation, de capacité, de performance, de coût et de sécurité ; - Il suit les avancées technologiques et propose si besoin des évolutions visant à améliorer l'efficacité du SI. Contexte technologique : - Informatica IDMC (MDM / API / ETL) / PowerCenter ; - Technologies Microsoft Azure (Fabric / DBaaS / Event Hubs...). Exemple de potentiels sujets à adresser : - Projets renouvellement CRM / Refonte de la facturation clients ;
DATA ANALYST SAS

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant SAS : Missions : Analyser le portefeuille à migrer : rapprocher les flux reçus des données présentes dans le SI Mise en qualité des fichiers Analyser les données et préparer la transcodification des fichiers entre l’ancien et le nouveau système Proposer des axes de fiabilisation des données et de rationalisation des produits Concevoir et paramétrer les produits, les garanties et les tarifs dans l’outil cible Qualifier et recetter les données suite aux opérations de migration dans le SI cible Recette statique et dynamique Recetter la bonne alimentation de l’ensemble du SI Assurer le reporting de ses travaux (planification, avancement, alerte) Participer / animer les ateliers avec le métier Rédiger la documentation permettant la conduite du changement Compétences : Maîtrise d’Excel et de SAS indispensable Une connaissance fonctionnelle de l’assurance de personne est nécessaire
CONSULTANT SAS

Nous recherchons un Consultant Junior ou Confirmé (environ 5 ans d’expérience) pour intervenir sur un périmètre riche et transverse, au sein d’un acteur majeur du secteur santé / prévoyance. 🎯 Vos missions principales : Absorption de tâches opérationnelles en soutien des équipes existantes Gestion du Run : surveillance, maintenance et optimisation des flux de données Appui à l’avancement de projets métiers et SI Rationalisation et nettoyage de la donnée Traitement des anomalies et remontée au métier avec une logique d’amélioration continue 🛠️ Compétences techniques recherchées : Maîtrise de SAS (impératif) Connaissance fonctionnelle du secteur santé / prévoyance Une maîtrise de Power BI serait un gros plus 🔍 Profil recherché : Consultant polyvalent, capable de balayer un scope large, de la technique à la coordination métier Force de proposition, autonome, rigoureux et doté d’un bon relationnel Envie d’évoluer dans un contexte stimulant mêlant Run et projets
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEVELOPPEUR INFORMATICA PL/SQL

Je recherche pour un de mes clients, un consultant Informatica PL/SQL : En tant que Consultant Informatica avec une forte compétence PL/SQL , vous aurez pour mission de : Analyse des besoins clients : Comprendre les besoins métiers et les spécifications techniques. Participer à la rédaction des cahiers des charges et des documents techniques. Conception et développement de solutions Informatica : Conception, développement et optimisation des processus ETL avec Informatica PowerCenter. Création et gestion des flux de données (extraction, transformation, chargement) en utilisant Informatica. Développement PL/SQL : Écrire et optimiser des scripts PL/SQL pour manipuler les données, réaliser des traitements batch et effectuer des intégrations complexes. Assurer la performance et l’optimisation des requêtes SQL et PL/SQL. Tests et validation : Réaliser les tests unitaires et d’intégration pour garantir la qualité des livrables. Déboguer, corriger les anomalies et proposer des améliorations continues. Maintenance et support : Assurer la maintenance des applications en production et proposer des améliorations. Analyser et résoudre les incidents techniques liés à Informatica et aux bases de données. Accompagnement et formation : Apporter un support technique aux équipes internes et aux clients. Former et conseiller les utilisateurs sur les bonnes pratiques de l’outil Informatica et des bases de données.