Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 335 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Business Analyste Assurance Data H/F

SYD CONSEIL MANAGEMENT
Publiée le
Big Data
Business Analyst

12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine

🌟 Quel sera ton poste en tant que Business Analyste Assurance Data H/F chez SYD ? 🌟 📍Lieu : Sur site client et télétravail 👉 Contexte client : Dans le cadre de notre mission, tu auras pour responsabilité d'analyser, de modéliser et d'optimiser les processus liés à l'Assurance Data. Tu seras le garant de la qualité et de la pertinence des solutions mises en place, en veillant à répondre aux besoins des utilisateurs et aux enjeux de l'entreprise. Tu auras pour missions de : Analyser les besoins des utilisateurs et traduire ces besoins en spécifications fonctionnelles claires et précises. Participer à la conception et à la mise en œuvre des solutions Assurance Data, en collaboration étroite avec les équipes techniques. Assurer le suivi des projets, en garantissant le respect des délais, des coûts et de la qualité. En tant que Business Analyste Assurance Data H/F, tu seras un acteur clé de l'optimisation des processus liés à l'Assurance Data, contribuant ainsi à l'amélioration de la performance opérationnelle de nos clients. Rejoins une équipe dynamique et passionnée, où ton expertise sera valorisée et où tu pourras contribuer activement au succès des projets. Postule dès maintenant et participe à l'aventure SYD ! 🌟

Freelance

Mission freelance
Data Ingénieur/Data Ops (H/F) remote

Mindquest
Publiée le
Big Data
PySpark
Scala

2 mois
400-550 €
Paris, France

Vous serez en charge de : Concevoir, implémentez et fournir des solutions pour les problématiques data. L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; a conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. D’assurer la continuité de service et le monitoring des flux développés. Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : • Spark , PySpark , Scala • HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka • Python, Java, Shell • API, Web services • Git Stash, Ansible, YAML • Puppet • Ansible • CI/CD • Docker / Kubernetes • Agilité / Scrum • la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ;

Freelance

Mission freelance
Data Analyst - Chef de Projet BI

ALLEGIS GROUP
Publiée le
Data analysis
Qlik Sense
SQL

3 mois
400-550 €
Nantes, Pays de la Loire

TEKsystems recherche pour l'un de ses clients grands comptes un: Data Analyst / Chef(fe) de Projet BI Nous sommes à la recherche d'un(e) Data Analyst / Chef(fe) de projet BI avec une expertise sur l'outil Qlik Sense (cloud) pour une mission sur Nantes. Cette mission vise à renforcer notre équipe et à accompagner le démarrage d'un nouveau client. Détails de la mission : Lieu : Nantes, avec des déplacements en région Orléanaise (1 semaine par mois) Objectifs : Pilotage d'activité terrain Management visuel

Offre premium
Freelance

Mission freelance
Lead FinOps on GCP/ Data Delivery Manager – 92 - Grand compte international

Montreal Associates
Publiée le
DevOps
Google Cloud Platform
Python

1 an
Nanterre, Île-de-France

🔎 Recherche Lead FinOps / Data Delivery Manager – 92 Description de la mission => Nous recherchons un Lead FinOps / Delivery Manager pour accompagner un client de renom dans le secteur de la grande consommation sur un projet stratégique de gestion et d’optimisation des coûts liés à Google Cloud Platform (GCP). Vos missions principales : 1. Delivery Leader (60%) Superviser les équipes pour garantir l’utilisation des bonnes pratiques d’ingénierie ; Assurer la qualité technique des livrables et leur conformité avec le cadre technique défini ; Gérer l’assignation des ingénieurs aux équipes Scrum en fonction des besoins et des compétences ; Maintenir la cohérence technique globale des solutions mises en œuvre. 2. Innovator (20%) Proposer des améliorations continues pour aligner la plateforme avec un environnement en constante évolution ; Participer activement à la communauté d’ingénieurs pour promouvoir et intégrer des innovations. 3. Anticipator (20%) Comprendre et challenger les besoins métier en collaboration avec les Product Owners (PO) ; Planifier la taille et les compétences nécessaires des équipes pour répondre aux objectifs ; Gérer le cadrage et les estimations des efforts nécessaires. Informations : Lieu : Mission hybride (remote + présentiel) sur Nanterre. Durée : 12 mois renouvelables. Démarrage : ASAP. TJM : À définir selon profil.

Freelance

Mission freelance
Tech lead data - GCP

KatchMe Consulting
Publiée le
Big Data
Cloud

6 mois
400-600 €
Île-de-France, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
Data Scientist - Assurance - Lutte contre les fraudes

NEXORIS
Publiée le
Data science

6 mois
500-550 €
Paris, France

Notre client, Secteur des assurances, recherche un Data Scientist (H/F) dans le cadre d'une longue mission. Au sein d'une direction de 120 personnes (incubateur / accélérateur des projets pour tout le groupe), vous participerez au développement d'un produit Data X Digital pour la lutte contre les fraudes (des assurés, des praticiens, ...). Vous participez aux efforts pour maintenir l'équilibre dans le système de financement de la santé en France en limitant les remboursements indus. Au sein du pôle Data Science, et en étroite collaboration avec un Data Scientist Senior et un Data Product Manager, vous aurez en charge l'exploration d'un nouveau sujet dans le domaine de la lutte contre la fraude. Par des méthodes d'Exploratory Data Analysis et la mobilisation d'outils d'analyse issus de la Data Science (notamment par des méthodes non-supervisées), vous identifierez des patterns susceptibles de révéler des pratiques frauduleuses. - Recueil et compréhension des besoins émis par les clients internes / Products Owners Métiers - Recherche de la démarche scientifique la mieux à même de répondre à la problématique, dans une logique itérative et incrémentale - Expression de besoin en termes de collecte de données, dans le respect de la réglementation et en concertation avec le Data Protection Officer et/ou ses relais - Analyse (statistiques descriptives, audit de la donnée, …), transformation (agrégation, consolidation, feature engineering) et visualisation de la donnée - Construction de modèles prédictifs, évaluation de leur performance et plus largement définition des KPI business justifiant de la valeur du cas d’usage - Restitution et valorisation des résultats aux clients internes / Products Owners Métiers Livrables attendus : - Analyse Exploratoire de données - Rapport d'analyse, data visualisation et pistes de recherche à diffuser au métier - Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) - Pipeline d'entrainement, test et validation, - Composants d'inférence - Prototypes et démonstrateurs - Plan d'expériences et de tests - Documentation technique et fonctionnelle - Rapport de veille technologique et technique

Freelance
CDI

Offre d'emploi
Développeur Data / BI - Asset Management

Amontech
Publiée le
Azure Data Factory
Azure DevOps Services
BI

1 an
40k-50k €
400-550 €
Île-de-France, France

Nous recherchons un Développeur Data / BI pour rejoindre l'équipe Support Fund Management et contribuer à des projets stratégiques dans le domaine de l'Asset Management. Vous serez impliqué dans les évolutions d'une plateforme BI et la maintenance de traitements Python en lien avec les équipes métiers : gérants, Trading, Middle Office, Risque, Reporting, et Compliance. Participation au cadrage des solutions à implémenter Développement des User Stories (US) Suivi de la recette, mise en production et maintenance Rédaction de documentation Amélioration continue des modèles de développement Veille au respect des standards techniques Très bonne connaissance des outils BI de Microsoft SQL Server 2012/2016 (SSIS, SSRS, SSAS) Expertise sur les bases de données relationnelles et SQL Très bonne maîtrise de la plateforme Azure BI Data Factory Compétences confirmées en Python et librairie Pandas Connaissance en Azure DevOps

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, Île-de-France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Architecte DataOps/Systems/GPU (H/F)

NAVIGACOM
Publiée le
Automatisation
Cloud
Data science

6 mois
400-800 €
Montreuil, Île-de-France

Pour un client du secteur bancaire, nous recherchons un Architecte DataOps/Systems/GPU expérimenté pour rejoindre l'équipe DataOps/DataLab au sein de la division AI & Innovation. Vous serez chargé de concevoir, implémenter, et superviser les plateformes de Data Science et AI, tout en renforçant les pratiques DevSecOps et GitOps. En tant qu’ Architecte DataOps/Systems/GPU , vos principales responsabilités incluent : Renfort des Équipes Systèmes et GPU Grid : Participer à la conception, à l'implémentation et au support des produits de Data Science/AI (exploration, MLOps, inférence, GPU Grid). Amélioration Continue : Contribuer à l'amélioration continue des produits et services de l'équipe, en intégrant les meilleures pratiques et innovations du marché. Gestion du Cycle de Vie des Produits : Automatiser et industrialiser les solutions de Data Science en suivant des approches "Cloud Native" basées sur Kubernetes. Supervision des Plateformes : Assurer la maintenance, la supervision et la fiabilisation des 15+ plateformes de Data Science (production et hors production). Garantir la robustesse et la performance des infrastructures en environnement Cloud et on-premise.

Freelance
CDI

Offre d'emploi
Data Steward / Consultant Data Governance (H/F)

SAS GEMINI
Publiée le
Data management

1 an
50k-75k €
400-700 €
Vélizy-Villacoublay, Île-de-France

Description du poste : Nous recherchons un Data Steward/Consultant spécialisé en gestion de la gouvernance des données pour accompagner une initiative stratégique de structuration et de valorisation des données. Vous serez chargé(e) de collecter, structurer et cartographier les données dans un outil de type catalogue de données. Vous jouerez un rôle clé dans l’animation des ateliers métiers et dans l’accompagnement des équipes sur l’utilisation et l’enrichissement des métadonnées. Responsabilités principales : Collecter et analyser les besoins métiers pour la structuration des données. Réaliser la cartographie fonctionnelle et technique des cas d’usage. Mettre en place le suivi des flux de données (data lineage). Former et accompagner les équipes dans l’utilisation des outils de gouvernance des données. Produire la documentation technique et fonctionnelle.

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
Big Data
Consultant

24 mois
275-550 €
Nanterre, Île-de-France

Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

Freelance

Mission freelance
SAP FICO - project manager

RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management
Finance
SAP

3 mois
300-800 €
Luxembourg

RED Global est à la recherche d’un consultant SAP FI pour venir rejoindre les équipes de l’un de nos clients au Luxembourg dans le cadre de leur projet en cours. Compétences requises : • Expérience de 4 ans minimum sur SAP FI • Manager un projet de Data migration Détails du projet : • Démarrage : Janvier 2025 • Durée : Contrat initial de 6 mois – dont 3 mois 100% on site puis Full remote • Charge de travail : 5 jours par semaine • Lieu : 3 mois 100% on site au LUXEMBOURG puis Full remote • Langues : Français et anglais obligatoire Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour en format Word sur

Freelance

Mission freelance
Chef de projet data retention collibra H/F

HAYS France
Publiée le
Data management
Déploiement

6 mois
500-700 €
Boulogne-Billancourt, Île-de-France

Titre du poste : Chef de projet – Conservation des données Le chef de projet dirigera une initiative de conservation des données de 6 mois pour développer une procédure opérationnelle standard unifiée et un calendrier de conservation des données consolidé. Ce rôle consiste à organiser et à animer des réunions avec les principales parties prenantes et le comité directeur afin de garantir l'alignement, la progression et la livraison dans les délais. Durée 6 mois Lieu: Ile de France Boulogne 92 Démarrage Fin Janvier Quelques jours de présence sur site au début de la mission puis full remote.

Freelance

Mission freelance
Data Quality Manager - Dématérialisation fiscale

BLOOMAYS
Publiée le
Business Process Model and Notation (BPMN)
Databricks
Python

11 mois
400-500 €
Gennevilliers, Île-de-France

Description et livrables de la prestation : Dans le cadre de divers projets réglementaires et stratégiques et en particulier celui de la dématérialisation des factures, nous devons assurer la maîtrise et la qualité de nos données. Le Data Manager jouera un rôle clé dans la gestion et l'optimisation des données de l'entreprise, garantissant leur qualité et leur conformité aux objectifs et aux normes établies. Missions : • Dans le cadre règlementaire de la dématérialisation fiscale des factures, en appui du Data Manager, vous assurerez une qualité des données conforme à une facturation dématérialisée imposée par la règlementation de l’état. • Vous assurerez une partie de la mise en place de la classification des données au sein du modèle de données d’entreprise (EDM) • Vous participerez, en regard des priorités données, à de la mise en qualité de données sur différents projets, en regard de l’expertise et industrialisation réalisé sur le projet majeur de dématérialisation fiscale des factures. Rôles : • Assurer la Qualité des Données : Veiller à ce que le niveau de qualité des données soit en adéquation avec les enjeux et objectifs définis par les projets. Proposer des solutions techniques et fonctionnelles de remédiation et de maintien de la qualité des données dans le temps. • Analyse et exploration préliminaire de la qualité des données : A l’aide d’outils SQL et/ou Python, analyser les données afin de les comprendre, d’évaluer de manière préliminaire leurs qualités et leur conformité en regard des exigences. • Mise en Place de Points de Contrôle : Basé sur sa production et/ou sa contribution et/ou sa lecture des documentations des processus métiers et techniques, ainsi que des entretiens métiers et techniques, proposer et mettre en place des points de contrôle dans les outils et sous forme de tableau de bord pour assurer la qualité des données sur son cycle de vie. • Classification des Modèles de Données : Participer à la classification des modèles de données et accompagner les projets dans la mise en œuvre de la Data Privacy by design. • Documentation des Catalogues et Flux de Données : Produire et maintenir la documentation des catalogues de données, des flux de données, et des architectures de données pour garantir une compréhension claire et partagée des données au sein de l'organisation. • Accompagnement dans la Production des Politiques de Données : Collaborer avec le Data Governance Manager pour élaborer et mettre en œuvre les politiques de données de l'entreprise, assurant leur alignement avec les objectifs stratégiques et réglementaires.

Freelance

Mission freelance
Consultant BI (H/F)

Link Consulting
Publiée le
Big Data
ETL (Extract-transform-load)

1 mois
500-550 €
Toulouse, Occitanie

Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.

Freelance

Mission freelance
Chef de projet DATA

Argain Consulting Innovation
Publiée le
Data management

1 an
400-550 €
Nantes, Pays de la Loire

Ce projet s'inscrit dans une démarche stratégique visant à générer plus d'autonomie dans l'usage des données de notre client auprès des utilisateurs. Pour ce poste, il est attendu : La compréhension du périmètre métier retenu data La définition fonctionnelle de la solution L'analyse des risques métier (sécurité, J&C) et production Les hypothèses de la solution applicative et technique La frugalisation de la solution​ Les moyens de tests​ La stratégie de déploiement​ Les hypothèses de coûts (build et run)​ La roadmap et l'organisation

335 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous