Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur Power BI (H/F) – Lyon
Nous recherchons un Développeur Power BI expérimenté pour rejoindre notre client, basé à Lyon, et l'accompagner dans l’optimisation et le développement de solutions de visualisation de données. Le candidat aura un rôle clé dans la transformation des données brutes en informations exploitables pour faciliter la prise de décision stratégique. Vous travaillerez en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des outils de reporting adaptés et performants. Vous serez responsable de l’ensemble du cycle de développement Power BI, depuis la collecte des exigences jusqu’à la conception et la mise en production des tableaux de bord interactifs.
Offre d'emploi
MOE Data Visualization / SAS / Power BI (FH)
Contexte Afin de renforcer l'équipe MOE de notre client du secteur bancaire, nous recherchons un MOE confirmé. La mission est à pourvoir rapidement, pour une durée de 6 mois minimum et est située à Paris 2è. En tant que MOE (Maîtrise d’Œuvre) Data Visualization, vous serez responsable de la mise en place d'un laboratoire analytique pour la manipulation de grandes volumétries de données, notamment issues des environnements Giga et Terra. Vous participerez à la gestion des risques et à la visualisation des données pour améliorer les prises de décision stratégiques. Vous utiliserez divers outils analytiques et de visualisation de données pour transformer les données brutes en informations exploitables. Responsabilités principales : • Concevoir et mettre en œuvre des solutions de visualisation de données à l'aide de Power BI et de SAS. • Utiliser le langage R, SAS et Vaya pour analyser des données complexes. • Assurer la gestion et l’analyse des risques à travers des modèles analytiques avancés. • Collaborer avec les équipes de gestion des risques pour développer des tableaux de bord interactifs. • Croisement et manipulation des données volumineuses (Giga et Terra).
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Mission freelance
EXPERT POWER PLATFORM
Pour cette mission, l'expertise et les compétences attendues sont : Capacité à analyser les besoins des métiers et à traduire ces besoins en solutions techniques. Capacité à suivre et livrer les projets dans les délais impartis. Expérience préalable dans le développement et la mise en œuvre de solutions Power Platform. Intégrer l’équipe Office 365 N3 et travailler en collaboration avec tous les membres Fournir un support technique et fonctionnels aux utilisateurs et résoudre les incidents N3 Connaissances en JSon, Dataverse serait un plus Connaissances sur le déploiement de solution dans Azure serait un plus Connaissances sur le fonctionnement et la mise en place de solutions portées par AI Builder serait un gros plus Outils bureautique : intermédiaire ou expert (faire un CR, une présentation,…) Esprit d'initiative et capacité à travailler de manière autonome. Aptitude à travailler en équipe et à gérer les parties prenantes. Anglais : niveau intermédiaire à minima
Mission freelance
Data Engineer
Dans le cadre de la mise en place de Microsoft Fabric, nous recherchons un(e) consultant(e) Microsoft Fabric pour accompagner nos équipes dans l'optimisation de cette solution pour répondre aux besoins en matière de gestion des données et de business intelligence (BI). Missions : Participer à la conception, au déploiement et à la configuration de Microsoft Fabric en fonction des besoins spécifiques du métier. Intégrer les sources de données diverses (ERP, CRM, bases de données, fichiers plats, API, etc.) dans Microsoft Fabric Configurer les pipelines de données, les environnements de stockage (data lakes, entrepôts de données) et les fonctionnalités d'analytique avancée. Fournir un support technique et des recommandations pour résoudre les problèmes de performance ou d’optimisation. Assurer la maintenance des solutions déployées et mettre en œuvre des évolutions selon les besoins. Collaborer avec les équipes métier et les équipes IT pour définir les stratégies de gestion des données.
Offre d'emploi
Développeur BI Sénior
Nous sommes à la recherche d'un Développeur BI Sénior ayant une excellente maîtrise de Power BI et Power Platform. La mission porte sur le développement de rapports Power BI et de leur chaîne de traitement associé. Comportant également les développements de rapports, de traitement automatisés (Power Platform) et sera en charge de l’administration du Sharepoint projet. Travail en Agilité Power BI Power Platform Administration Sharepoint Modélisation BI (OLAP vs OLTP, modèle en étoile, flocon, Datamart/Datawarehouse) Cloud AZURE Appétence sur les sujets Fonctionnels Rythme Hybride
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
Administrateur MEGA/HOPEX Aquila
Le département Architecture a en charge le référentiel d'architecture applicative et technique de la DSI MEGA/HOPEX Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application du Groupe et les autres outils groupes - Spécification et mise en œuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA) - Participation à l'animation de la communauté des utilisateurs - Impératif : connaissance du progiciel Mega / Hopex (minimum 5) - Modélisation des schémas d’architecture /cartographie dans MEGA/Hopex - Rédaction de spécification et process - Compétence en développement (language natif Mega/hopex, .net..) - Des connaissances Power Bi seraient un plus
Mission freelance
Data analyste
Analyse et compréhension des données o Exploration des données pour identifier et documenter leurs caractéristiques (type de données, structure des données, schémas récurrents, valeurs, problèmes,…). o Compréhension des données en lien avec les besoins métier et les processus de l'entreprise. - Evaluation de la qualité des données intra Dataset et cross Dataset (Désynchronisation) o Evaluation sur base de règles génériques ou de règles de qualité métier o Identification et inventaire des anomalies o Proposition et mise en pratique de nouvelles règles de qualité et de règles de nettoyage de données. o Proposition d’actions préventives et correctives de gestion de la qualité des données - Identification ou recommandation de clés métier uniques (Business key) - Coordination et synchronisation avec les acteurs métier et IT o Identification et collecte des set de données o Compréhension des données, de leurs problématique et enjeux avec le métier o Communication des contrôles effectués ainsi que des résultats - Documentation et création de divers rapports o Visualisation et documentation des analyses et résultats o Rapports de profilage (complétude, Validité, unicité, cohérence, véracité et actualisation), Rapports opérationnels (Désynchronisations, rapports reçus de la part du métier), Rapports d’input aux KPIs et Dashboard DQ - Outils et méthodes o Analyse et Exploration avec les outils fournis par l'entreprise (Atacama DQ Analyzer, Power BI, SQL, Python) o Proposition de nouveaux outils, méthodes et processus pour le profilage des données o Automatisation des processus de profilage et de reporting de qualité de données.
Mission freelance
CONSULTANT TECHNICO-FONCTIONNEL SAP FI-CO - SUPPORT APPLICATIF
Contexte Afin de renforcer l'équipe SAP FI CO, notamment sur le périmètre Support applicatif, nous cherchons un consultant connaissant SAP FI CO. Son intervention se fera sur nos 2 systèmes SAP fortement interfacés, au sein d'une équipe FICO de 5 personnes et en interaction avec d'autres personnes du domaine (MM SD ou Traducteur comptable) ou externes au domaine (MOE, MOA, métier). Description Sur les sujets qui lui seront confiés, le consultant assumera les missions suivantes : Mission principale : - Assurer la maintenance des systèmes au quotidien - Assister et former les utilisateurs (incidents, maintenance corrective-évolutive) Missions secondaires : - Assister la Maîtrise d'Ouvrage - Prise en charge et suivi des évolutions (recueil des besoins, chiffrage, planning et mise en œuvre) - Rédiger les spécifications fonctionnelles générales et détaillées - Réaliser le paramétrage SAP FI et CO - Effectuer les tests unitaires et les recettes - Assurer la coordination avec les autres équipes Livrables Rédiger et maintenir à jour la documentation technique et fonctionnelle
Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables
Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.
Mission freelance
Développeur Senior Python/GO
Nous sommes à la recherche d'un développeur Senior Python/GO, capable de concevoir et de maintenir des applications robustes et performantes. Le candidat idéal devra posséder une solide expérience en développement logiciel et être à l'aise avec les technologies de traitement des données. Il sera amené à travailler en étroite collaboration avec les équipes produit et technique pour définir et implémenter des fonctionnalités avancées, tout en contribuant à l'élaboration de solutions innovantes qui répondent aux besoins stratégiques de l'entreprise et soutiennent son plan de croissance à long terme.
Mission freelance
Geodata Scientist / Analyst
L’objet de la prestation est l’exécution d’une mission de Géodata analyst orientée traitement de données géographiques. Missions : • Compréhension des besoins métiers, acculturation et veille active sur les bases de données, plateformes et autres dispositifs en lien avec le cœur de métier de l’équipe à savoir les stratégies de décarbonation des territoires. • Traitement des données par l’utilisation de différents logiciels et outils, développement d’algorithmes de traitement sur mesure pour valoriser la donnée en lien avec les besoins de l’équipe études. • Restitution des résultats sous la forme de cartographie interactive, tableaux de bord, outils applicatifs, services web et tout autre format innovant qui pourra être demandé par les utilisateurs finaux. o Maitriser les bases de données (IGN, BDNB, ONB, Open data, Open Street Map, DGFIP, GeoSIRENE, SDES... ) et réaliser une veille active sur les mises à jour des bases ou sur la mise à disposition de nouvelles bases de données/plateformes et flux d’intérêts pour l’équipe. o Manipuler, croiser et enrichir les différentes bases de données avec Python et en utilisant toutes technologies pertinentes avec un fort goût pour l’innovation (Deep learning, analyses d’images, analyses spatiales ...) o Utiliser différents outils (Qgis, ArcGIS, Tableau Software, Power BI) pour valoriser la donnée et produire des livrables de Datavisualisation selon les attentes des utilisateurs finaux ou à destination de l’équipe en faisant preuve de pédagogie et de vulgarisation. o Être garant de la gestion des données pour l’équipe ainsi que de la plateforme en ligne de mise à disposition des tableaux de bords et outils. o Prendre connaissance des outils déjà développés en interne, devenir garant de leur mise à jour selon les besoins clients et être force de proposition pour les enrichir et les améliorer. o Participer aux réunions avec les clients internes ou externes à toutes les étapes du projet (réunions de lancement, de suivi et livraison finale des études). Il est capable de comprendre le besoin client, de le traduire en termes techniques et d’en évaluer la faisabilité opérationnelle. o Travailler en collaboration avec la R&D sur les bonnes pratiques autour de la donnée et du SIG. Les livrables attendus sont les suivants (liste non exhaustive) : - Production annuelle du fichier Géospatial de référence pour l’équipe à partir des données INSEE - Développement d’une méthode permettant le croisement de bases de données à l’adresse - Développement de tableaux de bord interactif permettant de cribler des territoires français selon différents critères - Reprise des outils de cartographie et de ciblage déjà développés dans l’équipe en mettant à jour les bases de données sources et en documentant les méthodologies employées pour la mise à jour. - Production de présentations synthétiques (format ppt) des outils, analyses et cartographie permettant de communiquer sur les activités de l’équipe.
Mission freelance
Consultant(e) technico-fonctionnel(le) Power BI - Finance/Crédit Conso
Le client recherche un profil technico-fonctionnel pour intégrer son pôle PME/ETI - Dettes privées. MISSION : travail en parallèle des équipes métiers pour construire des reporting sur des fonds granulaires (de dettes privées d'entreprises) collecte du besoin métier force de proposition et proposition de solutions développement améliorer les tableaux de bords (automatisation, modèle en étoile, performance, etc...) ; l'objectif étant de pouvoir sortir des indicateurs type KPI, prêt en difficulté, etc... RYTHME D'INTERVENTION : 3 jours sur site et 2 jours en télétravail par semaine
Offre d'emploi
Developpeur Qlikview,Power BI, Azure, OLAP,OLTP,modèle en étoile, flocon, Datamart/Datawarehouse
La mission intervient dans le cadre du maintien en conditions opérationnelles (MCO) puis de la migration d’un projet de reporting BI, actuellement sous Qlik View et devant migrer à terme vers Power BI. Le développeur BI Qlik participera à la maintenance évolutive des reporting Qlik View. Par la suite (horizon 1 an), il participera aux études et à la migration de ces applications de Qlik vers Power BI. S’agissant d’un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l’équipe projet, il n’y a pas de responsabilité de production individuelle. Les sprints projet s’échelonnent généralement sur 2 semaines.
Offre d'emploi
Analyste Supply chain PowerBI
La mission concerne le domaine de la Supply Chain et plus particulièrement l’optimisation des VEX (Valeurs d’Exploitation = stocks + en-cours). Un premier outil P00 pour l’identification des anomalies de stock est déjà disponible, mais sur un périmètre restreint, et il nécessite d’être fiabilisé et amélioré. L’intervenant devra gérer le projet de bout en bout: • Activité #1 : Traduction des besoins des clients en termes techniques • Activité #2 : Développement itératif de l’outil PowerBl : un premier MVP sera livré sous 3 semaines puis enrichi ou adapté progressivement avec les retours des clients (selon spéc initiale) • Activité #3: Documentation opérationnelle et technique du livrable (cf ci-dessous) • Activité #4 : Accompagnement du déploiement dans environnement sécurisé Résultat! livrables de la mission: - Document de spécifications techniques des exigences - Réalisation d’un dashboard fonctionnel sur le périmètre DMS France - Documentation pour l’utilisation du dashboard - Documentation technique pour le maintien du dashboard - Dashboard mis à disposition sur le serveur HZA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes