Trouvez votre prochaine offre d’emploi ou de mission freelance Data analyst à Paris
Le ou la Data Analyst collecte, analyse et interprète les données pour fournir des insights utiles à la prise de décision. Ce métier consiste à transformer des données brutes en informations exploitables pour optimiser les performances d’une organisation. Le Data Analyst est souvent impliqué dans des projets variés tels que l’analyse des ventes, l’étude du comportement des clients, ou l’évaluation des campagnes marketing.
Informations sur la rémunération de la fonction Data analyst.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Recherche d’un Data Analyst
Notre client, acteur clé dans le secteur de l'assurance recherche un Data Analyst expérimenté pour accompagner ses équipes dans la gestion et l’optimisation des flux de données. Le candidat devra intervenir en tant qu’expert des mécanismes de la donnée, en assurant la cohérence et l’intégration des données au sein des systèmes d’information. Il jouera également un rôle clé dans l’analyse, la restructuration et l’acheminement des données tout en assurant la liaison entre les besoins métier et les équipes techniques. Le Data Analyst sera responsable des tâches suivantes : Analyse et gestion des données : Comprendre et analyser les modèles de données existants . Garantir la cohérence des données dans les différents systèmes. Restructurer les données pour répondre aux besoins des métiers et des équipes techniques. Superviser l’acheminement des flux de données dans les différents environnements (data pipelines). Interaction avec les parties prenantes : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins spécifiques. Traduire ces besoins métier en solutions techniques adaptées. Assurer un rôle d’interface entre les équipes métiers et la DSI. Gestion technique et outils : Intégrer et structurer les données dans le système d’information. Exploiter les outils de gestion de données tels que Talend , Semarchy , et MarkLogic (DataLake). Réaliser des requêtes sur les bases de données Oracle pour répondre aux besoins d’analyse. Veiller à l’optimisation et la fiabilité des flux de données. Pour cette mission, le candidat devra présenter les compétences et expériences suivantes : Expertise en gestion de données : Bonne compréhension des mécanismes de la donnée et des processus de cohérence et d’acheminement. Expérience dans l’intégration et la gestion des données dans des environnements complexes. Capacité à analyser et restructurer des modèles de données existants. Compétences techniques : Maîtrise des outils tels que Talend , Semarchy , et MarkLogic . Bonne connaissance des bases de données Oracle et capacité à effectuer des requêtes SQL. Familiarité avec les environnements DataLake. Soft skills : Esprit d’analyse et de synthèse. Excellente communication pour interagir efficacement avec les équipes métiers et techniques. Autonomie, rigueur et capacité à structurer des demandes complexes. Atout : Une expérience dans le secteur Assurance sera fortement appréciée. Documentation des modèles de données restructurés. Plans d’intégration et rapports d’analyse des flux de données. Rapports de cohérence des données et recommandations pour les optimisations futures.
Mission freelance
Data analyst
Analyse de données : Collecter, nettoyer et analyser les données provenant de diverses sources pour fournir des insights exploitables. Reporting : Créer des rapports et des tableaux de bord interactifs pour suivre les performances et les tendances. Optimisation des processus : Identifier et proposer des améliorations pour optimiser les processus métiers et les opérations. Collaboration : Travailler en étroite collaboration avec les équipes internes pour comprendre leurs besoins et fournir des solutions adaptées. Gestion des données : Assurer la qualité et l'intégrité des données, et mettre en place des procédures de gestion des données efficaces. Formation et support : Former les utilisateurs finaux sur les outils et les rapports développés, et fournir un support continu.
Offre d'emploi
Data Analyst Assurance
Pour les besoins d'un client grand compte Banque et assurance, nous recherchons un consultant Data Analyst senior, ayant de l'expérience dans le secteur Assurance. Pour travailler au sein de la Direction du Datahub du client, qui est un centre d’expertise de la donnée, transversal à toute leur branche assurance. Il a vocation à la fois à faciliter les usages de la donnée par les différentes fonctions métiers via le Datalake (pilotage commercial, marketing, actuariat, finance et risque, etc.), et à produire des analyses / modèles plus complexes via le Datalab. Le Data Analyst sera rattaché au pôle Solution et delivery du DataLab et aura la charge de: Cadrer et spécifier les besoins des différents métiers qui en font la demande (étude ou extraction) Travailler en étroite collaboration avec les autres membres du DataLab pour favoriser la réutilisation des études existantes et capitaliser sur les acquis de l’équipe Agir en support des squads FT data afin de les aider à prototyper rapidement et valider les règles de gestion des silos analytiques Réaliser les demandes adressées dans le respect des plannings métiers Veiller à l’application du processus de traitement des demandes en vigueur Restituer agilement en fonction de l’interlocuteur (Powerpoint, Excel, E-mail, PowerBi, code en production …) Privilégier la réutilisabilité de ses livrables Développer en toute agilité au côté des métiers les projets nécessitant la mise en place de dashboards Communiquer avec le reste de l’équipe et les métiers sur les arbitrages, les nouvelles règles et éventuelles anomalies détectées, …
Offre d'emploi
Data Analyst Assurance
Le Data Analyst rattaché au pôle SAD du DataLab aura la charge de : Cadrer et spécifier les besoins des différents métiers qui en font la demande (étude ou extraction) Travailler en étroite collaboration avec les autres membres du DataLab pour favoriser la réutilisation des études existantes et capitaliser sur les acquis de l’équipe Agir en support des squads FT data afin de les aider à prototyper rapidement et valider les règles de gestion des silos analytiques Réaliser les demandes adressées dans le respect des plannings métiers Veiller à l’application du processus de traitement des demandes en vigueur Restituer agilement en fonction de l’interlocuteur (Powerpoint, Excel, E-mail, PowerBi, code en production …) Privilégier la réutilisabilité de ses livrables Développer en toute agilité au côté des métiers les projets nécessitant la mise en place de dashboards Communiquer avec le reste de l’équipe et les métiers sur les arbitrages, les nouvelles règles et éventuelles anomalies détectées, …
Mission freelance
Data Analyste - Data Scientist
TEKsystems recherche pour l'un de ses clients grands comptes un Data Analyste/Data Scientist CONTEXTE : Le Data Analyst/Data Scientist aura pour mission principale de finaliser le projet d'alimentation des contrôles implémentés par les SI pays et SI Corporate dans le dashboard central Spotfire (DGD). En parallèle, il sera amené à contribuer à l'ensemble des projets Data Science de l'équipe, notamment : • Modélisation des valeurs résiduelles des véhicules : Développement de modèles prédictifs pour estimer la valeur future des véhicules. • Détection de fraude : Mise en place de solutions de machine learning pour identifier les transactions frauduleuses. • Analyse de documents : Extraction d'informations structurées à partir de documents non structurés (OCR, NLP). • Classification d’emails : Automatisation de la classification des emails en fonction de leur contenu. • Scores et segmentations marketing : Création de modèles de scoring et de segmentation clients pour optimiser les campagnes marketing. OBJECTIF DE LA PRESTATION L'objectif de cette prestation est de renforcer les capacités de l'équipe Data Science en faisant appel à une expertise complémentaire. Le prestataire aura pour mission de : • Finaliser le développement du dashboard Spotfire (DGD) : Assurer la qualité, la fiabilité et la performance des données alimentant le dashboard. • Contribuer à l'ensemble des projets Data Science : Apporter son expertise technique et méthodologique pour mener à bien les différents projets en cours. • Accélérer la mise en œuvre de projets innovants : Explorer de nouvelles technologies (IA générative, deep learning) et proposer des solutions adaptées aux besoins de l'entreprise. • Favoriser le partage des connaissances : Transmettre son savoir-faire aux équipes en place et contribuer à la montée en compétences de l'ensemble du service.
Offre d'emploi
Business Analyst – Data & Transformation(H/F)
Nous recherchons un Business Analyst spécialisé dans le domaine Data et Transformation pour intervenir sur des projets stratégiques au sein d'une grande plateforme d'assurance. Vos missions principales : En tant que Business Analyst au sein du domaine Solutions Data MAP , vous serez amené(e) à : Collaborer en mode agile avec : Les métiers de l’assurance de personnes. Les filières SI de la plateforme d’assurance. Les partenaires Data du groupe et des prestataires externes. Accompagner le Manager Produit dans : Maintenir la cohérence du produit Data en collaboration avec les tech leads et les architectes. Piloter la transformation Data et la rationalisation des outils. Animer la communauté Scrum pour prioriser le backlog des demandes liées à la transformation. Porter les exigences non fonctionnelles avec les équipes (infogérance, sécurité, habilitations). Contribuer au suivi du bon fonctionnement des solutions Data.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Data Ingénieur/Data Ops (H/F) remote
Vous serez en charge de : Concevoir, implémentez et fournir des solutions pour les problématiques data. L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; a conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. D’assurer la continuité de service et le monitoring des flux développés. Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : • Spark , PySpark , Scala • HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka • Python, Java, Shell • API, Web services • Git Stash, Ansible, YAML • Puppet • Ansible • CI/CD • Docker / Kubernetes • Agilité / Scrum • la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ;
Mission freelance
Data Scientist
👉 Contexte : Je recherche un Data scientist senior pour intervenir chez notre partenaire sur deux projets. Les deux nécessiteront des connaissances en Python , SQL et Azure . Le premier projet nécessite quelqu'un qui soit très compétent en traitement du signal . Nous cherchons à optimiser les paramètres des machines d'usine pour réduire les déchets et garantir la meilleure qualité. La partie la plus difficile de cette tâche sera de trouver la meilleure approche pour extraire le signal du bruit. Nous recherchons un data scientist qui possède de vastes connaissances en découverte causale et en inférence causale . Il serait aussi intéressant d'avoir une expérience dans la création d' algorithmes d'apprentissage par renforcement . Le deuxième domaine relève de la R&D. C'est un projet from scratch qui a pour objectif de relier les données (et de trouver des moyens de les acquérir, lorsqu'elles manquent) à partir de diverses sources.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Business Analyst Data Banque Risques de Crédit
L'équipe projet Risques Climatiques Physique a besoin de se renforcer dans le cadre des prochaines évolutions de l'application, et aussi du support fonctionnel à apporter au métier. Les tâches confiées au prestataire seront les suivantes : - documentation de l’existant et spécification des évolutions futur - Organisation et animation d’ateliers portant sur les thématiques traitées - Préparation et réalisation des travaux de recette - Traitement des demandes d'analyse des données en base dans l'application, en support aux demandes métier sur la production. Une compétence d’analyse et requêtage de données en base est nécessaire Objectif du projet Risques Climatiques : Mise en place de datasets règlementaire et opérationnels sur les Risques Climatiques Physiques dans l'environnement cloud GCP. Ces datasets correspondent aux données liées aux biens financés, assurés et mis en garantie dans le groupe, la vulnérabilité de ces biens aux aléas climatiques et l'impact financier. Le projet comporte également l’echange de flux avec un partenaire et la constriction de reporting Power BI de restitution des résultat d’analyse Risques
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Data Manager & gouvernance des données (EBX ou Colibra)
Mise en œuvre et gestion du cadre de gouvernance des données au sein du département financier (> 500 personnes), en se concentrant sur les éléments de données critiques (CDE), la qualité des données, la coordination des Data Stewards et l'animation des organes de gouvernance (DataBoard et Data Forum). Livrables demandés :Documentation du cadre de gouvernance des données Mise en œuvre des indicateurs de qualité des données (IQD) Animation et reporting mensuels du Data Forum Mises à jour trimestrielles du DataBoard Exécution et documentation des contrôles internes Fourniture de supports et sessions de formation
Mission freelance
Tech lead Data
Nous recherchons un Leader Technique Data pour rejoindre notre client, acteur majeur dans son secteur, et jouer un rôle clé dans la conception et la mise en œuvre de solutions innovantes en data science. Vous travaillerez au sein du pôle architecture entreprise et serez responsable de la coordination d’équipes pluridisciplinaires (data scientists, développeurs) tout en contribuant directement à des projets stratégiques. Vos principales responsabilités : Concevoir et implémenter des solutions de data science et de machine learning. Coordonner et diriger des équipes composées de data scientists et de développeurs. Analyser les données et réaliser des visualisations pertinentes. Gérer les bases de données et les systèmes de stockage de données. Implémenter des solutions de gestion et de gouvernance des données (DataLab, DataLake, ETL, API management).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel dispositif de mutuelle recommandez-vous pour un président non salarié de SASU à l’IS
- Marché du Freelance : Un peu calme, Non ?
- Site qui réplique les données des freelances pour les vendre...
- Pret bancaire en portage salarial
- ESN en retard de paiement depuis 9 mois - Conseils pour relance
- 3 mois intercontrats, 6 entretiens client final 6 echecs