Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte Data Urbaniste des Systèmes d'Information (SI)
Contexte Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : MISSIONS - animer des ateliers métier, comprendre les besoins métier, les challenger - identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins - Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) - Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique - Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance - Coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data.
Offre d'emploi
Profils Data en pré-embauche
Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Business Analyst Data Global Trade
Contexte / Objectifs : La mission se déroulera au sein de l'IT Data & Business intelligence sur les métiers Global Trade (Trade et Cash) L'équipe est en charge de développer un datalake (Global Trade Lake) pour les métiers du Trade et du Cash En tant que Business Analyst, le consultant aura pour missions: - Participer à la migration des données de l'infocentre vers le datalake - Modéliser les données à ingérer qui seront également utilisées sous forme de dashboard Power Bi - Spécifier les ingestions de données et les besoins en dashboard exprimés par le métier - Tester les ingestions de données et les dashboard - Si vous êtes formé vous pourrez également concevoir et mettre en place des dashboard PowerBi en prenant en compte la user expérience - Suivre la qualité de notre production - Créer et maintenir des relations de confiance avec nos métiers.
Offre d'emploi
QA DATA
En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. 1. Participer aux ateliers/rituels agiles 2. Réaliser la stratégie de test 3. Identifier et réceptionner les environnements de test 4. Analyser et évaluer les cas d'usage/User Story 5. Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données 6. Exécuter les cas de tests 7. Créer et suivre les anomalies avec les différentes parties prenantes 8. Maintien du référentiel de test 9. Réaliser le PV de recette
Offre d'emploi
Ingénieur DATA-BI H/F
AT&C Monaco recherche pour l’un de ses clients sur Marseille, un Ingénieur DATA-BI H/F en CDI à pourvoir rapidement. Rattaché au Responsable de production, en tant qu’Ingénieur DATA-BI vous intégrerez le pôle Data et travaillerez conjointement avec les équipes de développement et les chefs de projets métier en apportant votre expertise et votre support sur l’ensemble du cycle de vie de développement des entrepôts de données décisionnelles. Vos missions : Conception de l’architecture des entrepôts de données : o Analyser et modéliser les besoins « métiers » o Participer et co-animer les ateliers métiers o Rédiger les comptes-rendus de réunions et les spécifications technico-fonctionnelle o Participer à la conception et au développement de l’architecture de l’entrepôt de données décisionnel et du Datalake o Maintenir les traitements d’alimentation du DataWareHouse (DWH) o Maintenir la documentation du DWH et du Datalake Restitution des données et formation des utilisateurs : o Développer les domaines métiers, les rapports et réaliser des extractions en fonction de la feuille de route ou de demandes Ad-Hoc. o Assurer la présentation des données selon les besoins de l’utilisateur o Assurer la formation des utilisateurs à l’utilisation des outils décisionnels o Structure les accès au décisionnel liés aux rôles et périmètres Support technique et assistance aux utilisateurs : o Participer aux corrections d’incidents, demandes d’évolutions et d’informations utilisateurs et chefs de projet métier o Accompagner le déploiement à l’ensemble du groupe d’un nouvel outils de Reporting : PowerBI o Assurer la veille technologique et traiter l’obsolescence technique o Suivre et gérer les performances du DWH et du Datalake
Mission freelance
Architect data
L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev
Mission freelance
Consultant Data Management - Temps partagés (3/5j) - Paris La Défense
Nous recherchons un·e Consultant·e Data Management expérimenté·e (3-5 ans) pour rejoindre notre service Data Office. Vous serez responsable de la mise en place de la gouvernance des données au sein de notre organisation, en apportant votre expertise sur la gestion des données et en pilotant des projets stratégiques autour du Data Management. Missions principales : Cartographier et documenter les data domains Finance, RH et Customer en collaboration avec les Data Owners et stewards. Identifier et inventorier les master data fonctionnelles. Clarifier l’ownership des master data dans le cadre de la politique de Master Data Management récemment établie. Participer activement à la création de dashboards internes et pour nos clients, et contribuer à l’obtention d’une vision client 360. Vous jouerez un rôle clé dans l’évolution de la stratégie Data de l’entreprise et dans la promotion de l’approche Data au sein des différentes équipes.
Mission freelance
Un analyst technique avancé - paramétrage Data Hub sur Paris
Smarteo recherche pour l'un de ses clients, grand compte, un analyst technique avancé - paramétrage Data Hub sur Paris Projet : Le prestataire prend en charge la réception des expressions de besoin, la rédaction des spécifications techniques, le paramétrage de l'application, le développement de scripts, la réalisation et la d ocumentation des campagnes de recette technique, le support de la recette maîtrise d'ouvrage et utilisateurs et la documentation des procédures de mise en production. Il respectera les normes de déve loppement en vigueur et sera force de proposition pour les améliorer. Ces travaux s'articulent autour du progiciel Data Hub de l'éditeur Neoxam. Il fera valider l'ensemble de ses livrables par le chef de projet, communiquera avec les maîtrises d'ouvrage et remplira le reporting demandé. Il est proactif vis-à-vis de sa production et moteur dan s la sollicitation des acteurs du projet pour faire avancer son sujet. Le prestataire aura obligatoirement déjà complété avec succès des missions de développement sur le progiciel. Livrables / Résultats attendus : Chiffrage des réalisations, proposition de planning Spécifications techniques Réalisation de la solution Toute documentation projet et des process interne requise Recettes unitaires et d'intégration Support à la recette, à la mise en production, support utilisateur de second niveau post MEP Environnements Techniques : Base de données Oracle, DataHub v6, ordonnanceur $U, Webservices. Compétences requises : Compétences Techniques: Paramétrage du progiciel Data Hub - Expert (Expérience minimale de 10 ans, Expérience développement client WPF nécessaire.) Requêtage PL/SQL Oracle - Expert Ordonnanceur Dollar Universe - maitrise Compétences Fonctionnelles: Instruments financiers - Maîtrise Suivi des Risques de marchés - Maîtrise Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Mission freelance
Responsable gouvernance Data/IA (H/F)
Missions principales : En tant que Responsable Gouvernance Data / IA, vous aurez la charge de la mise en place et de la gestion de la gouvernance des données au sein de l’entreprise, tout en facilitant l’intégration et le déploiement des initiatives d’intelligence artificielle. Vous travaillerez étroitement avec les équipes de la DSI, les métiers, et les équipes Data pour garantir l’alignement des stratégies data et IA avec les objectifs de l’entreprise. Missions principales : •Pilotage et déploiement du schéma directeur DATA & IA oPiloter opérationnellement le schéma directeur DATA, l’ajuster et en assurer le suivi auprès des parties prenantes ; oPiloter opérationnellement les initiatives d’IAG engagée, de la gestion du portefeuille à la communication auprès de parties prenantes ; oCoordonner les équipes, instances et partenaires travaillant sur les problématiques DATA ; oPiloter le budget associé. •Stratégie de gouvernance des données : oDéfinir et mettre en oeuvre la stratégie de gouvernance des données, en veillant à la qualité, la sécurité, et la conformité des données ; oÉtablir des politiques de gestion des données (normes, règles de gestion, bonnes pratiques) pour assurer une utilisation responsable des données ; oPiloter la création et la maintenance du data catalog et du data dictionary. •Gestion des initiatives d'IA : oAccompagner les projets IA de l'entreprise, depuis l’identification des cas d’usage jusqu'à leur mise en production ; oCollaborer avec les Data Scientists et les équipes métiers pour intégrer les solutions d'IA dans les processus métier ; oParticiper à la définition des frameworks d'éthique et de transparence liés à l'utilisation des algorithmes IA. •Qualité et sécurité des données : oMettre en place des processus de Data Quality Management pour garantir la fiabilité des données ; oS'assurer de la conformité aux réglementations en vigueur (ex. : RGPD) et sensibiliser les équipes sur les enjeux de la protection des données ; oCollaborer avec le RSSI pour renforcer la sécurité des données et des algorithmes d’IA. •Pilotage de la gestion des données : oDéfinir les indicateurs de performance (KPI) pour mesurer l’efficacité de la gouvernance des données et des projets IA ; oCoordonner les Data Owners et les Data Stewards pour optimiser la gestion des données au sein de l'entreprise ; oSuperviser les processus de data lineage et de data mapping pour assurer la traçabilité des données. •Veille technologique et innovation : oEffectuer une veille sur les nouvelles technologies en matière de gouvernance des données et d’intelligence artificielle ; oProposer des innovations pour améliorer les pratiques de gestion des données et optimiser les performances des modèles d'IA.
Mission freelance
Consultant Audit BI
Beager recherche pour l’un de ses clients, un(e) Consultant(e) en Audit de la Chaîne BI (indépendant). Contexte de la mission : Mission : Le consultant retenu aura pour mission d’auditer la chaîne BI et de proposer des améliorations concrètes à court, moyen et long terme. Les actions à mener incluent : Audit complet de la chaîne BI : Analyse approfondie des différents composants, identification des failles et recommandations pour l'optimisation. Renforcement de la chaîne de traitement de nuit : Proposer des solutions techniques pour garantir une mise à jour fiable des données chaque nuit. Réduction des temps de latence : Identifier les causes des lenteurs et suggérer des améliorations pour fluidifier les accès aux données. Amélioration de la cohérence des données : Évaluer les écarts entre les différentes applications et proposer des solutions pour harmoniser les données. Augmentation de la qualité des données : Développer des indicateurs de qualité et des processus de vérification pour assurer la fiabilité des informations. Objectifs spécifiques : Recueillir les besoins des utilisateurs : Organiser des ateliers avec les équipes internes pour comprendre leurs attentes et défis liés aux données. Collaboration inter-équipes : Travailler avec les équipes de développement pour fournir les éléments nécessaires à l’amélioration des requêtes et des modèles de données. Optimisation de l'infrastructure : Collaborer avec les équipes techniques pour proposer des améliorations sur le matériel et les configurations nécessaires. Suivi de l'avancement : Mettre en place des indicateurs de suivi des actions engagées et faire des points réguliers avec les Directions des Métiers (DM) sur l'avancée des travaux.
Mission freelance
Expert QDD/ Assistance au projet QDD (qualité des données)
Dans le cadre du dispositif « Qualité des données S2 », la Direction des Risques et la DTSI du client doivent veiller à accompagner les projets de transformation des SI en veillant à la conformité et à la mise à jour des documents (lignages des données prioritaires, cartographie des processus) réglementaires et à finaliser le projet de mise en place du dispositif QDD. Pour cela, il sera demandé : • De piloter et de participer à la bonne mise à jour des documents réglementaires QDD en suivant et en sensibilisant les acteurs des différents projets impactant l’existant • D’être le point d’entrée de l’ensemble des points ouverts concernant la qualité des données pour Solvabilité 2 pour le client • De promouvoir et de former les acteurs QDD des autres entités TSI pour qu’ils appliquent la démarche mise en place dans le cadre du projet QDD Process : 1 entretien Go - No Go
Offre d'emploi
Expert technique Colibra
Dans le cadre de la mise en œuvre et de l'optimisation de la solution Colibra pour la gestion des données financières et la conformité, l'entreprise recherche un Expert Technique Colibra . Ce poste est essentiel pour garantir l'efficacité de la solution en fournissant une expertise technique approfondie, en gérant les intégrations et en assurant le support technique pour les utilisateurs. En tant qu'expert Colibra, vos missions seront les suivantes: Analyser les besoins des clients (IT et métiers) dans la documentation de leur périmètre Data - Charger la documentation Data du métier dans Collibra et documenter le processus - Paramétrer la solution Collibra pour adapter son usage aux besoins des utilisateurs (création de dashboards, vues, etc.) - Présenter l’offre de service aux clients et les accompagner dans la prise en main de l’outil - Tester les nouvelles fonctionnalités de Collibra, déterminer leur pertinence et les intégrer dans l’offre de service - Donner des ateliers de formation et animer des ateliers de travail / des démonstrations - Recueillir le feedback des utilisateurs pour adapter l’offre de service - Fournir du support et de l’assistance aux utilisateurs, tester les nouvelles releases et résoudre d’éventuels incidents ou bugs.
Offre d'emploi
Directeur de projet migration Data - snowflake
🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management
Offre d'emploi
Data Analyst/Engineer H/F
Votre 1er projet : Vous accompagnerez notre client, un grand compte historique de la région. Votre intégrerez une équipe dédiée à la conception d’un outil dédié à l’autonomie des clients. Dans ce contexte, nous recherchons un Analytics Engineer ou BI Engineer pour soutenir l’activité de notre client. Vous travaillerez dans environnement international et anglophone avec des standards de haut niveau. Vos missions : · Construire et optimiser les pipelines de données dans notre entrepôt de données · Effectuer des analyses pour répondre aux différentes opportunités commerciales · Construire, automatiser et maintenir des rapports avec nos outils BI. · Assurer la cohérence et la qualité des données transmises en mettant en œuvre la stratégie de gestion des données convenue. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Mission freelance
Consultant(e) BI Senior (H/F) 92
Notre client recherche un(e) consulmtant(e) pour une mission de prestation informatique concernant un(e) Consultant(e) BI Senior. Cette mission s'inscrit dans le cadre du développement des tableaux de bord d’intérêt pour notre Direction Medical Oncology France. Contexte et objectifs de la mission : Au sein de l’équipe Datafactory rattachée à la DDSI (Direction Data et Systèmes d’Information) : Collaborer avec les différentes équipes (IT et Médical) pour comprendre les besoins. Animer les ateliers métiers de spécification et expression des besoins. Auditer et analyser un tableau de bord existant de la direction jumelle Medical Biophama, proposer une factorisation pour aboutir à un modèle de données unique. Animer les ateliers de conception technique avec nos Data engineer. A partir de jeux de données pour la plupart issus de notre CRM Veeva, développer et automatiser des tableaux de bord permettant de suivre les principaux indicateurs d’activité des RMRs (KPI). Assurer la qualité et l’intégrité des données en effectuant des contrôles réguliers
Offre d'emploi
Skiils recherche son Expert data quality
Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.