Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert Power BI H/F
Nous recherchons un expert PowerBI, afin d'intégrer une mission dans une structure à forte valeur ajoutée. Mission : La mission concerne le domaine de la Supply Chain. L’intervenant devra gérer le projet de bout en bout. • Traduction des besoins des clients en termes techniques • Développement itératif de l’outil PowerBl : un premier MVP sera livré sous 3 semaines puis enrichi ou adapté progressivement avec les retours des clients (selon spéc initiale) • Documentation opérationnelle et technique du livrable (cf ci-dessous) • Accompagnement du déploiement dans environnement sécurisé Résultat! livrables de la mission: - Document de spécifications techniques des exigences - Réalisation d’un dashboard fonctionnel - Documentation pour l’utilisation du dashboard - Documentation technique pour le maintien du dashboard - Dashboard mis à disposition
Offre d'emploi
Ingénieur Data Expert Power BI
Nous recherchons un Data Engineer confirmé, expert en Power BI, pour rejoindre une équipe dynamique au sein d'une grande entreprise. Vous jouerez un rôle clé dans la conception, le développement et l'optimisation de solutions de reporting et de visualisation de données pour répondre aux besoins de nos utilisateurs et parties prenantes. Créer et maintenir des rapports Power BI performants et adaptés aux besoins des utilisateurs Participer activement à la migration des rapports existants de Power BI Report Server vers Power BI Service Concevoir, développer et optimiser des modèles de données et des cubes pour assurer des performances optimales Appliquer les meilleures pratiques en matière de visualisation de données Collaborer étroitement avec les équipes IT et métiers pour une intégration fluide des solutions Sécuriser l'accès et la diffusion des données en conformité avec la politique de sécurité de l'entreprise Comprendre les besoins métiers et proposer des améliorations pour les applications et projets de transformation Se tenir informé des nouvelles fonctionnalités de Power BI et proposer des optimisations
Mission freelance
Expert Power BI (Lyon)
Contexte de la mission Vous intégrerez une équipe multiproduits qui est découpée en deux feature teams. En tant qu'Expert Power BI, vous rejoindrez une équipe de 35 personnes. Projets PBI : • Reprise des devs en cours et optimisation • Fusion de projet PBI : Adaptation MDD, reprise formules, échanges avec métiers • Ateliers avec métier PME pour adapter des IHM Vecu dans le PBI Cockpit • Dev dans PBI Cockpit, d'éléments en lien avec QDD • Migration vers PBI Service (quand Go DSI) avec par exemple adaptation MDD ou récup data dans d'autres projets PBI Stack technique impérative : • Power BI • SQL • Recueil de besoin Expérience non impérative mais apprécié : • Python • R Shiny • Machine Learning • Dash
Offre d'emploi
Tech Lead Power BI
En tant que Tech Lead Power BI , vous serez responsable de la conception et de la mise en œuvre des solutions BI pour répondre aux besoins métiers. Vous assurerez également la gestion d’une équipe de développeurs Power BI et de projets complexes, tout en garantissant la cohérence et la performance des solutions déployées. Leadership technique : Superviser l’équipe Power BI et garantir les meilleures pratiques de développement. Architectures BI : Concevoir l'architecture des solutions BI en lien avec les besoins métiers, en veillant à l’optimisation des performances. Pilotage de projets : Gérer l’ensemble des projets BI, de la phase de conception à la mise en production. Innovation : Promouvoir l'usage des dernières fonctionnalités Power BI et suivre les évolutions technologiques. Qualité et gouvernance : Définir et mettre en œuvre des politiques de gouvernance des données et veiller à la qualité des rapports. Collaboration : Travailler en étroite collaboration avec les équipes métiers et les autres départements IT (Data Engineering, Data Science).
Mission freelance
Business Analyst - GM / EMTN
Notre client, Banque de Financement et d'investissement recherche un Business Analyst - GM / EMTN (H/F) dans le cadre d'une longue mission. Vous interviendrez au sein de la direction IT GBCR, dans l'équipe Client Data, pour des projets de business intelligence autour de l'Indixis Lake commercial de la CIB, en lien avec la rentabilité commerciale et la performance des équipes de vente. - Recueillir les besoins métier sur la maintenance et les projets. - Rédiger les spécifications et réaliser les phases afférentes. - Maintenir le backlog et reporter sur l'avancement. - Prioriser les sujets et coordonner les acteurs impliqués. - Assurer la conduite du changement auprès des utilisateurs. - Analyser le support niveau 2 (IHM, dashboards BI, bases de données). - Contribuer à la méthode Agile (daily meetings, poker planning, rétrospectives). - Travailler sur le projet EMTN pour la refonte du système de booking et ses impacts sur le système Indixis. livrables : Spécifications fonctionnelles, reporting d'avancement, et solutions BI.
Offre d'emploi
Consultant Power BI
En tant que Consultant Power BI , vous jouerez un rôle clé dans l'exploitation des données pour optimiser la performance de l’entreprise. Vous serez responsable de la création de tableaux de bord, de rapports analytiques, ainsi que de la gestion de bout en bout des projets BI en lien avec les différentes équipes métiers. Analyse des besoins métiers : Travailler étroitement avec les différentes équipes (production, qualité, logistique, etc.) pour comprendre leurs besoins en matière de reporting et de visualisation de données. Modélisation des données : Collecter, nettoyer et structurer les données issues de différentes sources (ERP, CRM, systèmes internes) pour une utilisation optimale dans Power BI. Création de rapports et de tableaux de bord : Développer des visualisations interactives et pertinentes pour aider à la prise de décision. Formation et support utilisateurs : Accompagner les équipes métiers dans l'utilisation des outils Power BI, former les utilisateurs finaux et répondre à leurs questions techniques. Amélioration continue : Proposer des solutions pour l'amélioration des processus et des outils BI au sein de l'entreprise, en tenant compte des dernières innovations technologiques. Documentation : Rédiger la documentation technique et fonctionnelle des solutions BI mises en place.
Mission freelance
Data Product Owner
📣 Opportunité Freelance - Data Product Owner📣 🎯 Data Product Owner -> 2 à 5 ans d'expérience 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride Mon client est à la recherche d'un profil en charge de la Data Acquisition et Data Quality. 💥 Didomi / Tempo World / Piano 💥 Basic knowledge : GDPR 💥 Connaissance des plateformes de management : Didomi 💥 Design & Implementation de Data Model 💥 Expérience avec les Data Ingénieurs 💥 Project Management 💥 Documentation / Reporting #data #productowner #didomi #tempoworld #piano #gdpr
Offre d'emploi
Architecte Technique
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application, la CMDB du Groupe et les autres outils groupes - Spécification et mise en oeuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA...) - Participation à l'animation de la communauté des utilisateurs 🤝 Les livrables attendus : Administration technique et fonctionnelle et au MCO Cartographie applicatives sous MEGA KPIS Mise en œuvre et évolutions de l'outil et des process
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Mission freelance
Data Engineer
Dans le cadre de la mise en place de Microsoft Fabric, nous recherchons un(e) consultant(e) Microsoft Fabric pour accompagner nos équipes dans l'optimisation de cette solution pour répondre aux besoins en matière de gestion des données et de business intelligence (BI). Missions : Participer à la conception, au déploiement et à la configuration de Microsoft Fabric en fonction des besoins spécifiques du métier. Intégrer les sources de données diverses (ERP, CRM, bases de données, fichiers plats, API, etc.) dans Microsoft Fabric Configurer les pipelines de données, les environnements de stockage (data lakes, entrepôts de données) et les fonctionnalités d'analytique avancée. Fournir un support technique et des recommandations pour résoudre les problèmes de performance ou d’optimisation. Assurer la maintenance des solutions déployées et mettre en œuvre des évolutions selon les besoins. Collaborer avec les équipes métier et les équipes IT pour définir les stratégies de gestion des données.
Offre d'emploi
Consultant Qlikview
Nous recherchons un(e) Consultant Junior Qlikview pour rejoindre notre équipe au sein d'un client reconnu pour ses projets Data. Entretien : semaine du 23/09 Démarrage mission : courant Octobre Lieu : Paris TT : 50 % L'objectif général de la mission est de participer à la maintenance évolutive des reporting Qlikview et à la migration des applications vers Power BI. Missions : Maintenance évolutive des reporting Qlik View Participation aux études et à la migration des applications de Qlik vers Power BI Travail en mode agile avec des livrables par sprints de 2 semaines Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation
Offre d'emploi
Data Engineer H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur
Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables
Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.
Mission freelance
Consultant(e) technico-fonctionnel(le) Power BI - Finance/Crédit Conso
Le client recherche un profil technico-fonctionnel pour intégrer son pôle PME/ETI - Dettes privées. MISSION : travail en parallèle des équipes métiers pour construire des reporting sur des fonds granulaires (de dettes privées d'entreprises) collecte du besoin métier force de proposition et proposition de solutions développement améliorer les tableaux de bords (automatisation, modèle en étoile, performance, etc...) ; l'objectif étant de pouvoir sortir des indicateurs type KPI, prêt en difficulté, etc... RYTHME D'INTERVENTION : 3 jours sur site et 2 jours en télétravail par semaine
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes