UCASE CONSULTING — Offres 15

Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.
Freelance
CDI

Architecte Solution Intégration applicative

UCASE CONSULTING

Bonjour, Pour le compte de notre client nous recherchons un architecte solution afin de mettre en place des solution d'intégration applicative opérationnelle au sein du SI. Missions : - Il participe à la définition de l'architecture de référence ; - Il propose des architectures techniques en réponse à des besoins exprimés par le métier, dont il vise la satisfaction avant tout. Il participe aux chiffrages détaillés des solutions proposées ; - Il analyse et documente les solutions existantes et à venir et définit des plans d'amélioration continue en termes de modélisation, de capacité, de performance, de coût et de sécurité ; - Il suit les avancées technologiques et propose si besoin des évolutions visant à améliorer l'efficacité du SI. Contexte technologique : - Informatica IDMC (MDM / API / ETL) / PowerCenter ; - Technologies Microsoft Azure (Fabric / DBaaS / Event Hubs...). Exemple de potentiels sujets à adresser : - Projets renouvellement CRM / Refonte de la facturation clients ;

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-68k €⁄an
TJM 580-900 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DATA ANALYST SAS

UCASE CONSULTING

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant SAS : Missions : Analyser le portefeuille à migrer : rapprocher les flux reçus des données présentes dans le SI Mise en qualité des fichiers Analyser les données et préparer la transcodification des fichiers entre l’ancien et le nouveau système Proposer des axes de fiabilisation des données et de rationalisation des produits Concevoir et paramétrer les produits, les garanties et les tarifs dans l’outil cible Qualifier et recetter les données suite aux opérations de migration dans le SI cible Recette statique et dynamique Recetter la bonne alimentation de l’ensemble du SI Assurer le reporting de ses travaux (planification, avancement, alerte) Participer / animer les ateliers avec le métier Rédiger la documentation permettant la conduite du changement Compétences : Maîtrise d’Excel et de SAS indispensable Une connaissance fonctionnelle de l’assurance de personne est nécessaire

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Lieu Paris, France
Freelance
CDI

CONSULTANT SAS

UCASE CONSULTING

Nous recherchons un Consultant Junior ou Confirmé (environ 5 ans d’expérience) pour intervenir sur un périmètre riche et transverse, au sein d’un acteur majeur du secteur santé / prévoyance. 🎯 Vos missions principales : Absorption de tâches opérationnelles en soutien des équipes existantes Gestion du Run : surveillance, maintenance et optimisation des flux de données Appui à l’avancement de projets métiers et SI Rationalisation et nettoyage de la donnée Traitement des anomalies et remontée au métier avec une logique d’amélioration continue 🛠️ Compétences techniques recherchées : Maîtrise de SAS (impératif) Connaissance fonctionnelle du secteur santé / prévoyance Une maîtrise de Power BI serait un gros plus 🔍 Profil recherché : Consultant polyvalent, capable de balayer un scope large, de la technique à la coordination métier Force de proposition, autonome, rigoureux et doté d’un bon relationnel Envie d’évoluer dans un contexte stimulant mêlant Run et projets

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DEVELOPPEUR INFORMATICA PL/SQL

UCASE CONSULTING

Je recherche pour un de mes clients, un consultant Informatica PL/SQL : En tant que Consultant Informatica avec une forte compétence PL/SQL , vous aurez pour mission de : Analyse des besoins clients : Comprendre les besoins métiers et les spécifications techniques. Participer à la rédaction des cahiers des charges et des documents techniques. Conception et développement de solutions Informatica : Conception, développement et optimisation des processus ETL avec Informatica PowerCenter. Création et gestion des flux de données (extraction, transformation, chargement) en utilisant Informatica. Développement PL/SQL : Écrire et optimiser des scripts PL/SQL pour manipuler les données, réaliser des traitements batch et effectuer des intégrations complexes. Assurer la performance et l’optimisation des requêtes SQL et PL/SQL. Tests et validation : Réaliser les tests unitaires et d’intégration pour garantir la qualité des livrables. Déboguer, corriger les anomalies et proposer des améliorations continues. Maintenance et support : Assurer la maintenance des applications en production et proposer des améliorations. Analyser et résoudre les incidents techniques liés à Informatica et aux bases de données. Accompagnement et formation : Apporter un support technique aux équipes internes et aux clients. Former et conseiller les utilisateurs sur les bonnes pratiques de l’outil Informatica et des bases de données.

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Toulouse, Occitanie
Freelance
CDI

Data Engineer GCP / Python

UCASE CONSULTING

Je recherche pour un de mes clients un Data Engineer GCP / Python : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data • Réaliser le développement dans les environnements technologiques attendus • Rédiger la documentation technique • Assurer un support aux testeurs Livrables principaux : • Réaliser du code applicatif • Rédiger les documentations techniques liés à ta solution, • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-53k €⁄an
TJM 400-580 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Consultant Expert BO (Business Object Data services - Parties ETL)

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un consultant Expert BODS, la partie ETL de BO. Suite à la migration d’un serveur sous Windows 2012 , un problème critique est survenu empêchant l’accès à la CMS (Console d’Administration) de BO XI3 . Lors de l’ouverture de BODS (la partie ETL de BO), après la saisie des identifiants d’administration, le message d’erreur suivant apparaît : 📌 "Session SDK Failure" après la tentative de connexion via "Administrator". L’objectif de la mission est d’ identifier et corriger l’origine du problème afin de rétablir l’accès à la CMS et assurer la continuité des opérations sur BODS . Missions Principales Diagnostic et analyse du problème Étudier l’impact de la migration du serveur sur BO XI3 et BODS. Identifier les causes du message d’erreur "Session SDK Failure". Intervention sur la CMS et BODS Restaurer l’accès à la Console d’Administration (CMS) . Corriger les dysfonctionnements liés à BODS (authentification, compatibilité, services). Optimisation et sécurisation Vérifier la configuration des services sous Windows 2012. Mettre en place une solution durable pour éviter la récurrence du problème. Documentation et transfert de connaissances Rédiger un rapport détaillé des actions entreprises. Assurer une formation aux équipes techniques si nécessaire. Compétences Requises Compétences Techniques Maîtrise avancée de BO XI3 , notamment l’administration et le dépannage de la CMS. Expertise en BODS (BusinessObjects Data Services – partie ETL). Connaissance approfondie des architectures BI et des interactions entre BO XI3 et BODS. Expérience des environnements Windows Server , en particulier Windows 2012. Capacité à analyser et résoudre des erreurs d’authentification et de session (Session SDK Failure). Qualités Recherchées Esprit analytique : Capacité à identifier rapidement la cause du dysfonctionnement. Autonomie et proactivité : Gestion efficace des incidents techniques. Méthodologie rigoureuse : Documentation claire et structurée. Communication et pédagogie : Capacité à transmettre les solutions mises en place aux équipes internes.

Démarrage Dès que possible
Durée 3 ans
Salaire 29k-58k €⁄an
TJM 470-970 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DATA ANALYST TABLEAU

UCASE CONSULTING

FICHE DE POSTE – Consultant(e) Tableau Contexte du projet : Dans le cadre d’un projet de transformation digitale, notre client, un acteur majeur du secteur luxe, souhaite optimiser son reporting et sa prise de décision grâce à la mise en place d’un environnement décisionnel performant. L’objectif est d’automatiser et de fiabiliser l’analyse des données via la solution Tableau, afin d’améliorer le pilotage stratégique des activités. Le projet inclut la refonte des tableaux de bord existants, la création de nouveaux indicateurs pertinents et l’intégration des données en provenance de multiples sources hétérogènes. Pour accompagner cette transformation, notre client recherche un(e) Consultant(e) Tableau expérimenté(e) capable de concevoir, développer et optimiser des visualisations avancées. Missions principales : Recueillir et analyser les besoins métiers en matière de reporting et de visualisation de données. Concevoir et développer des tableaux de bord interactifs et dynamiques sous Tableau. Optimiser les performances des requêtes et des visualisations pour assurer un affichage rapide et fluide. Assurer l’intégration des données issues de différentes sources (bases SQL, API, fichiers plats, etc.). Accompagner les équipes métiers dans l’appropriation des outils et la montée en compétences sur Tableau. Rédiger la documentation fonctionnelle et technique des solutions mises en place. Assurer la maintenance et l’évolution des tableaux de bord en fonction des nouveaux besoins.

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-45k €⁄an
TJM 400-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Consultant Power BI / Databricks

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un consultant Power BI. En tant que Data Engineer spécialisé en traitement de données , vous intégrerez une équipe dédiée à la valorisation des données. Vous serez responsable de la conception, du développement et du suivi des solutions data en environnement Azure et Databricks . Missions principales 🔹 Analyse et formalisation des besoins : Rédaction des User Stories (US) en collaboration avec les équipes métiers. 🔹 Développement et bonnes pratiques : Implémentation des pipelines de données sous Databricks , en assurant un code propre, testé et versionné avec Git . 🔹 Architecture et intégration : Conception des schémas data en accord avec les besoins fonctionnels et techniques. 🔹 Visualisation et reporting : Production de tableaux de bord interactifs sous Power BI . 🔹 Suivi et documentation : Rédaction des spécifications techniques et des rapports d’avancement (hebdomadaires et mensuels). 🔹 Monitoring et amélioration continue : Mise en place des indicateurs de suivi et gestion des risques pour optimiser les performances des solutions. Livrables attendus ✅ Documentation et spécifications techniques des développements. ✅ Analyses de données et conception d’architectures adaptées. ✅ Pipelines de transformation et d’intégration sous Databricks . ✅ Tableaux de bord et visualisation des données avec Power BI . ✅ Rapports d’avancement et suivi des KPIs du projet. Compétences requises 📌 Techniques : Cloud & Data : Bonne maîtrise de Databricks, Azure (Data Factory, Data Lake, Synapse Analytics, etc.) Développement : Expérience avancée en SQL, Python, PySpark Reporting & BI : Maîtrise de Power BI pour la création de dashboards Orchestration & CI/CD : Connaissance des outils GitLab, Jenkins, VTOM, Step Function Systèmes & Supervision : Familiarité avec Linux, Windows, Kubernetes, Datadog, Kibana, Grafana Gestion de projet agile : Expérience avec Jira, Trello, ServiceNow

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-62k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

UCASE CONSULTING

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-52k €⁄an
TJM 400-550 €⁄j
Lieu Paris, France
Suivant
1

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous