Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant SI Finance Durable
Notre client, dans le secteur bancaire, recherche un Consultant SI Finance Durable : Contexte : La mission se déroulera en 3 étapes : 1/ Mener une étude avancée pour cartographier les interlocuteurs, les outils et les projets en cours liées au sujet réglementaire de la CSRD pour la collecte d’informations extra-financières. Celle-ci sera complétée par une analyse des besoins des métiers. 2/ Elaborer un schéma directeur, en phase avec les objectifs du groupe pour la finance durable, pour définir la stratégie (choix des données à collecter/outils/…, planning,…) et aboutir à un référentiel unique. 3/ Coordonner les actions à mettre en œuvre au niveau du SI et être force de proposition pour participer activement à la collecte/consolidation/surveillance des données, la production de KPI et la mise en place de tableau de bord qui répondent aux besoins des opérationnels.
Mission freelance
Consultant Power BI / Communauté Data
Nous recherchons, pour l'un de nos clients, un Consultant Data Viz / Communauté Data avec une solide expertise sur la solution Power BI. Ce poste implique la construction de tableaux de bord, le support aux utilisateurs, ainsi que l'animation de la communauté Data sur les usages de Power BI. Vos missions principales : - Concevoir et migrer des tableaux de bord Power BI. - Accompagner et répondre aux besoins des utilisateurs internes. - Développer des tutoriels et des supports pédagogiques (newletter, astuces, …) pour faciliter l'adoption des outils. - Participer à l'animation de la communauté Data, en favorisant les échanges et la montée en compétences des utilisateurs. Profil recherché : - Connaissances solides en Power BI et en analyse de données - Vous êtes un excellent communicant, à l’aise aussi bien à l’oral qu’à l’écrit. - Vous avez une forte orientation vers la satisfaction client. - Vous disposez de connaissances en gouvernance des données. - Une expérience dans le secteur des assurances serait un véritable atout. Mission à Orléans en présentiel.
Mission freelance
Chef de Projet MOA
La mission aura pour objectif travailler sur les différentes phases des projets : du recueil du besoin (phase d'étude de faisabilité) jusqu’au suivi post-production. Les missions consistent à : - Cadrer les besoins avec les métiers et analyser l'existant - Identifier les impacts en lien avec la MOE - Elaborer des spécifications fonctionnelles détaillées (DCF) - Modélisation fonctionnelle - Formaliser les stratégies et scénario de recette - Participer à l’assistance post-mise en production - Suivi des actions et reporting sur l'avancement du projet (dont remontée des alertes) - Mise à jour de la documentation - Etre force de proposition - dans le cadre des projets - de la méthode de travail avec la MOE et de la méthodologie projet existante Projets Principaux : - Poursuivre le déploiement du Datamart Distribution - Migration de l'informationnel (Mainframe) vers le Décisionnel (Snowflake) - Archivage des données des datamarts Contribution de la MOA aux autres projets autour du Décisionnel
Mission freelance
Data Visualisation en Finance (Power BI, Excel, SharePoint)
Nous recherchons un(e) consultant(e) en Data Visualisation pour une mission stratégique dans une entreprise spécialisée dans le financement des solutions locatives Dans le cadre de son plan stratégique, l'entreprise cherche à optimiser ses indicateurs de pilotage et à améliorer la performance globale de ses processus. L'entreprise met en œuvre des initiatives pour répondre aux objectifs, visant à accélérer l'efficacité opérationnelle et à être dans une dynamique de développement avec des risques maîtrisés. Actuellement, des indicateurs EQR (Efficacité, Qualité, Risques) sont utilisés pour analyser la performance des équipes de Middle et Back-Office . La mission consiste à revisiter et optimiser ces indicateurs afin de répondre aux exigences croissantes et aux attentes des utilisateurs. Évolution des fichiers EQR : Adapter les fichiers actuels en tenant compte des retours d’expérience et des nouvelles exigences. Application des règles de management visuel : Structurer et présenter les fichiers de manière optimale pour faciliter leur compréhension et leur exploitation. Migration vers un outil de pilotage adapté : Revoir le format actuel sous Excel et proposer une solution plus adaptée (notamment Power BI) pour une meilleure gestion des données. Proposition d’un support innovant : Concevoir un support de collecte, d’organisation et d’exploitation des données, répondant aux besoins exprimés par les parties prenantes.
Offre d'emploi
Business Analyst Data – Data Vault / Tableau (H/F)
Dans le cadre du développement de notre pôle Décisionnel & Big Data , nous recherchons actuellement Un(e) Data Analyst – Data Vault (H/F) pour répondre aux besoins de notre client bancaire. ⇰ CONTEXTE Le projet consiste à centraliser l'ensemble des données disponibles dans des outils différents (KIBANA, ELK COPILOT, Galiléo, GDD, CORESI etc.), afin d’en permettre la consolidation et la synthèse. Enjeux : Performance opérationnelle : mise en qualité et mutualisation des données, automatisation des rapports Sécurisation et traçabilité : une plateforme sécurisée, des données et processus documentés, une gouvernance fédérée Performance du SI : inscription dans écosystème Banque des Territoires, rationalisation et urbanisation du SI Nouveaux usages : mutualisation data et connaissance client, facteur d’innovation Répondre à la contrainte de sortie de BO pour les usages décisionnels et d’analyse data ⇰ MISSIONS Permettre la recherche des données indispensables pour gérer l'activité Produire de manière automatisée les reporting réglementaires requis pour l’activité Produire de manière automatisée, sécurisée et traçable les tableaux de bord nécessaires au pilotage et au suivi de production de l’activité pour une meilleure maitrise des risques opérationnels et de performance opérationnelle Mettre à disposition des autres directions de l’EP les indicateurs CDS nécessaires à leurs activités Permettre l’analyse des données à des fins de lutte contre la fraude Permettre aux utilisateurs de produire de manière autonome des analyses à la demande S'intégrer dans l'approche omnicanale de la relation client Permettre la promotion des offres et l’information des clients sur les évolutions de service SI et métier
Offre d'emploi
Data analyst : looker, gcp
DÉBUT DE MISSION : 06/01/2025 DURÉE : 144 jours LIEU : Ronchin Nous recrutons pour le compte de l’un de nos clients un data analyst pour accompagner le déploiement de la plateforme Looker et sa mise à disposition des Business Units (BU) et autres plateformes. Descriptif de la mission : Votre rôle consistera à concevoir et implémenter une architecture adaptée aux besoins des utilisateurs métier, tout en respectant les standards de performance et en garantissant une expérience utilisateur optimale. Vous serez également responsable de la formation des équipes, de l’intégration des projets, et de l’accompagnement dans l’adoption de l’outil Looker. Vos principales responsabilités : Mettre en place l’infrastructure de la plateforme Looker et la rendre accessible aux BU et autres plateformes. Concevoir des architectures adaptées aux besoins des utilisateurs, tout en garantissant des performances optimales. Former et accompagner les équipes dans l’utilisation de la plateforme et de ses fonctionnalités. Créer des tableaux de bord pour le pilotage des activités des BU. Garantir l’application des bonnes pratiques et promouvoir un usage optimal de la plateforme. Compétences requises : Maîtrise de Looker et du langage LookML . Connaissances avancées en GCP , GitHub , Terraform , et API . Expérience en création de tableaux de bord et optimisation des performances de visualisation de données. Première expérience sur Looker et connaissance des outils internes, appréciées. Profil recherché : Vous êtes un professionnel confirmé dans le domaine de la DataViz, capable d’allier rigueur technique, pédagogie et esprit analytique pour accompagner les équipes dans l’adoption et l’utilisation de la plateforme Looker.
Offre d'emploi
Data Engineer (NetVibes indispensable)
Nous recherchons un Data Engineer , spécialisé dans l’utilisation de Netvibes , pour rejoindre l'équipe Data de notre client. Vous serez responsable de la collecte, du traitement, et de la structuration des données tout en exploitant la puissance de l’outil de reporting Netvibes pour fournir des tableaux de bord et des insights pertinents aux différentes parties prenantes de l’entreprise. Collecte et intégration des données : Mettre en place des pipelines de données robustes pour extraire, transformer et charger (ETL/ELT) des données issues de multiples sources. Assurer l’intégration fluide des données dans des environnements cloud. Modélisation et structuration des données : Concevoir des modèles de données adaptés aux besoins des analyses et des reportings. Veiller à la qualité, la cohérence, et la gouvernance des données collectées. Utilisation de Netvibes : Configurer et optimiser l’outil Netvibes pour le reporting et la visualisation des données. Créer des tableaux de bord dynamiques et interactifs pour répondre aux besoins des équipes métier. Garantir la maintenance et l’amélioration continue des solutions développées sous Netvibes. Optimisation des processus : Automatiser les flux de données pour minimiser les interventions manuelles. Identifier les opportunités d’amélioration dans la gestion des données et proposer des solutions techniques adaptées. Collaboration : Travailler étroitement avec les équipes métier (marketing, finance, opérations, etc.) pour comprendre leurs besoins en données. Collaborer avec les Data Analysts et Data Scientists pour mettre en place des infrastructures adaptées à leurs analyses.
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Mission freelance
Analyst SAP FC/EPM (Data Viz)
Dans le cadre d'une étude de structuration des données - BI Conso (DataViz) Nous recherchons un analyste SAP FC/EPM avec une expérience minimale de 5 ans , notamment dans les domaines de la consolidation et contrôle de gestion. L'objectif est d'analyser l’interface existante entre SAP FC et SAP EPM afin d’identifier les causes des limitations actuelles de SAP EPM et préconiser des évolutions précises à apporter sur la structuration des données dans la base de données de l’outil de BI pour lever ces limitations. Une expérience de 5 ans (ou plus) dans les domaines de la consolidation et contrôle de gestion, L’expérience des prestations de conseil dans la réalisation et l’audit des outils de Dataviz Des compétences solides dans la gestion de Base De Données Des compétences solides de paramétrage de l’outil SAP FC La connaissance de l’outil SAP EPM ou autre outil de BI financier similaire Capacités relationnelles et rédactionnelles, travail en équipe, Indépendance vis-à-vis des éditeurs et autres fournisseurs du marché des logiciels. L’étude est prévue pour être réalisée du 06/01/2025 au 06/02/2025 Description du besoin & attentes : Etude des données transmises de SAP FC vers SAP EPM et préconisations sur les évolutions à apporter pour assurer une restitution correcte des données dans un outil de BI, quels que soient les changements (déjà en usage) apportés aux données dans SAP FC - comprendre la source des limitations actuelles - identifier les évolutions nécessaires à mettre en œuvre sur la structuration des données lors du projet de renouvellement de l’outil pour s’assurer de la bonne restitution des données, en particulier lors des changements de hiérarchie dans l’outil de BI
Offre d'emploi
Data Engineer Snowflake
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake Tâches: Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un chantier de refonte des schémas de stockage de nos données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et TF1+ (Product Owners, Data Analysts et opérationnels) Vous maîtrisez les technologies suivantes : -Snowflake -SQL avancé -RBAC -Terraform -Azure -Azure DevOps / JIRA /Confluence Vous êtes familier avec la culture DevOps et l’Agilité, le travail en équipe et la gestion de projet technique, dont la méthodologie est déjà établie, éprouvée et très largement adoptée.
Mission freelance
PM Data (Lille 2j TT)
Cherry Pick est à la recherche d'un "PM Data" pour un client dans le secteur du Commerce de détails. Contexte de la mission Au sein de notre organisation produit Data, nous recherchons un·e Data Product manager pour gérer la collecte des données de nos MarketPlace, contribuer à l’alimentation de données de processus opérationnels et organiser la restitution au travers de DashBoards. En contact permanent avec le business, dans un contexte agile (Scrum) et en animation fonctionnelle de votre équipe produit (9 Ingénieurs de données: 3 DE, 2 AE, 2 BI ENG, 1 DA, 1 DS) localisée en France (5 pers), Allemagne (3 pers), Pologne (1 pers) : Vous collectez, structurez et priorisez les besoins Vous mettez en place et garantissez la performance des pipelines d'alimentation des données dans notre Datalake Vous faites évoluer et mettez en place des DashBoards de restitution des données au service des acteurs de la MarketPlace Vous managez votre roadmap d’innovation et IAs Vous garantissez un RUN de qualité pour respecter le niveau de service attendu par vos utilisateurs Vous contribuez à l'animation du processus agile scrum (Daily, Refinement, Sprint Planning, Retro, Démo) Vous interagissez avec vos différents stakeholders : représentants business, product manager logiciels et data, Data Manager, Data Owner Profil : Product Manager confirmé et vous avez de solides expériences dans la data Soft Skills : Leadership / Force de proposition / Communicant / Esprit d'équipe / Responsable /Problem-solver Hard Skills : Cf compétences ci dessous Environnement technique : AWS (S3, Lambda, Airflow), DataBricks, Github, DBT, Spark, Tableau Software Objectifs et livrables Vision & Stratégie Construire la roadmap du produit, la partager, l’adapter et animer sa mise en œuvre (#vision) Explorer les besoins & problématiques des métiers (#discovery) Définir le modèle de données (#data_modeling) Animer un comité de pilotage pour communiquer sur les avancées & faire acter les arbitrages/décisions (#gouvernance) Concevoir le produit Ecrire les User Stories et les prioriser sur chaque sprint (#value) "Raconter" et faire vivre le besoin de l’utilisateur au sein de l’équipe produit (#sens) Identifier et gérer les dépendances avec les autres produits/services logiciels ou data (#lineage) Faire vivre le produit Faire évoluer le modèle de données (#data_modeling) Valider & vérifier la conformité des données avec les besoins des utilisateurs (#data_quality) Vérifier l’impact des évolutions produit et mesurer la satisfaction utilisateurs (#value) Communiquer sur la vie, les évolutions du produit (#newsletter) et développer son utilisation (#usage_follow_up) Contribuer à la formation et l’accompagnement des utilisateurs (#upskilling) Garantir la maintenabilité, l’évolutivité et la fiabilité du produit (#robustness #sla)
Mission freelance
Data Scientist
Concernant le projet, le client est entrain de commercialiser des modules d'IA. Notre client recherche actuellement un Data Scientist maîtrisant : - Databricks (obligatoire) - Python (très bonne connaissance) - Compétences en gestion des utilisateurs et des droits - Gestion des utilisateurs - Gestion des droits - Plusieurs modèles de gestion de droit - Bonus : Connaissance de D3.js et des visualisations avec Databricks Ce consultant H/F doit également avoir une maitrise de l'environnement de l'immobilier ou de la banque/ assurance ou en crédit / finance.
Offre d'emploi
Lead Data Engineer (H/F)
Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et au sein d'une équipe agile, vous devrez répondre aux différents besoins de l'entreprise : - Définir les architectures des solutions avec le reste de l'équipe, - Fabriquer et tester les solutions, - Déployer dans les différents environnements, - Garantir le bon fonctionnement en production, - Entrainer et tester des modèles de Machine Learning. La stack Technique : - Spark, Kafka, Java - Python, PY Spark - Docker, Jenkins - Gitlab/Github - Grafana
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- TVA sur marge possible sur des produits d'occasions d'origine hors UE ?
- Besoin d'aide pour devenir freelance
- Déclaration d'impôt sur les revnus "versement forfaitaire libératoire" sur l'année "conduite de AE à EI"
- Marché du Freelance : Un peu calme, Non ?
- Apporteuse d'affaire pour un logiciel
- Perspectives freelance 2025