Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 383 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Big Data
Google Cloud Platform
Python

6 mois
450-600 €
France

Nous recherchons pour l'un de nos clients Glocomms, un Data Engineer pour un contrat freelance de 6 mois. Rôle : Ingénieur de données freelance Lieu de travail : Ile-de-France Durée du contrat : Contrat de 6 mois Travail à distance Date de début : Janvier 2025 Principales responsabilités : Concevoir et mettre en œuvre des pipelines ETL optimisés, traitant des téraoctets de données tout en réduisant les coûts du cloud. Développer des outils basés sur Python pour appliquer les règles commerciales et assurer la fiabilité des données de tarification. Construire des systèmes de reporting automatisés et en temps réel pour l'analyse et le suivi des données de tarification. Établir et maintenir des tests et des processus robustes de qualité des données. Collaborer avec des équipes interfonctionnelles pour améliorer les flux de données et soutenir les objectifs de l'entreprise.

Freelance

Mission freelance
Data Scientist IA

ESENCA
Publiée le
Apache Airflow
BigQuery
Data science

3 mois
400-500 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban

CDI
Freelance

Offre d'emploi
Data Scientist – Domaine de l’environnement(H/F)

CELAD
Publiée le
Data science

12 mois
38k-40k €
300-400 €
Toulouse, Occitanie

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Scientist pour intervenir chez un de nos clients dans le domaine de l’environnement💻💼 💡 Votre futur rôle ? Vous souhaitez travailler au sein d’une équipe d’experts passionnés par la data et l’innovation ? Rejoignez ce projet transverse composé de 6 Data Scientists, où chaque mission est une opportunité de relever de nouveaux défis analytiques ! 🧪 Vos terrains de jeu : • Les données : images satellites, données météo, données océanographiques, télémétrie et trajectoires. • Les méthodes : régression, classification, segmentation sémantique. • Les technologies : de l’analyse classique au Machine Learning et Deep Learning. 📚 Vos missions à la loupe Chaque mission dépend du backlog du Datalab. Pour autant, voici ce que l’on peut déjà vous assurer : • 🦜 Comprendre et analyser le besoin : vous échangerez avec les experts métiers pour cerner le problème à résoudre. • 🧬 Définir la stratégie d’analyse : choix des algorithmes à mobiliser (data processing, ML, DL) en fonction des objectifs. • 💻 Coder et développer des modèles performants : créer des solutions robustes et maintenables en respectant les bonnes pratiques de développement. • 📊 Restituer et déployer : livrer des dashboards percutants et, si nécessaire, mettre les modèles en production. • 👨‍👩‍👦 Collaborer au quotidien : échanger régulièrement avec les experts métiers pour affiner les solutions.

Freelance

Mission freelance
Architecte Data Solution - CIB

ABSIS CONSEIL
Publiée le
Architecture
Big Data
Domain Driven Design (DDD)

3 ans
700-750 €
Paris, France

Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie

Freelance

Mission freelance
STream Lead Sénior-S4Hana MM & data migration

EBMC
Publiée le
Data management
SAP

6 mois
400-700 €
Paris, France

Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

Freelance

Mission freelance
Expert Technique DataHub

OctopusGroup
Publiée le
Administration linux
Big Data
Cloudera

24 mois
250-600 €
Niort, Nouvelle-Aquitaine

Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,

Freelance
CDI

Offre d'emploi
Responsable Gestion des Données de Validation – Driver Monitoring System (F/H)

CELAD
Publiée le
Data management

6 mois
60k-65k €
500-600 €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Vous aurez un rôle stratégique dans la gestion des données de validation, depuis leur collecte jusqu'à leur archivage et leur mise à disposition pour les équipes de test. Tâches principales : - Collecter et traiter les données de test nécessaires à la validation des systèmes de surveillance des conducteurs. - Assurer la vérification et l’annotation des données conformément aux catalogues statistiques et déterministes spécifiés. - Gérer les flux de données : stockage, archivage, transfert et mise à disposition des données pour les campagnes de validation planifiées. - Définir et mettre en œuvre des processus, outils et règles liés à la gestion des données de validation tout au long du cycle de vie du projet, y compris les phases post-SOP (PRCL). - Estimer les capacités et performances nécessaires pour le stockage et le traitement des données, en prenant en compte les coûts associés. - Collaborer avec les équipes R&D pour garantir la synchronisation des livrables et des versions tout au long du projet.

CDI

Offre d'emploi
Data Engineering Manager

Phaidon London- Glocomms
Publiée le
Big Data
Cloud
Python

65k-90k €
Paris, France

Dans le cadre d'un projet majeur de transformation digitale et de données, nous recherchons un Senior Data Engineering Manager qui rejoindra l'équipe au premier trimestre 2025. Rôle : Responsable de l'ingénierie des données Lieu de travail : Paris Central Flexibilité du travail hybride Date d'entrée en fonction : Q1 2025 Vous serez à la tête de notre équipe de données et superviserez la stratégie de données et l'exécution de la feuille de route. Principales responsabilités : Participer à la transformation numérique des données et veiller à ce que les objectifs de l'entreprise soient atteints. Diriger et gérer l'équipe de base chargée des données. Faire évoluer et développer l'équipe de données par le recrutement et le mentorat continu. Agir en tant que référent pour l'architecture globale et les questions techniques. Promouvoir les meilleures pratiques en matière de données et favoriser une culture d'amélioration continue.

Offre premium
Freelance

Mission freelance
Tech Lead Data Analytics GCP

KatchMe Consulting
Publiée le
Data analysis
Google Analytics
Google Cloud Platform

1 an
400-850 €
Paris, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
Ingénieur Data gouvernance (H/F) 75

Mindquest
Publiée le
Big Data
PySpark
Python

3 mois
400-500 €
Paris, France

Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

CDI
Freelance

Offre d'emploi
Développeur java/data H/F

BK CONSULTING
Publiée le
développeur
h-f
java data

24 mois
50k-55k €
275-550 €
Lille, Hauts-de-France

MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO

Freelance

Mission freelance
devOps DATA

ALLEGIS GROUP
Publiée le
Big Data
DevOps

3 mois
100-600 €
Niort, Nouvelle-Aquitaine

Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.

Freelance

Mission freelance
AMOA Data - Référentiels Tiers - Secteur Banque

MGT Conseil
Publiée le
Big Data

1 an
500-650 €
Paris, France

Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance

Freelance

Mission freelance
Chef de projet Migration/Accompagnement au changement - Offre de services Data

COEXYA
Publiée le
Data analysis

1 an
400-550 €
Nantes, Pays de la Loire

Rejoignez un projet stratégique en Freelance et faites la différence ! Nous recherchons un professionnel Freelance hautement qualifié pour intégrer une mission d’envergure qui s’inscrit au cœur d’une démarche stratégique de transformation au sein de notre groupe. Ce projet vise à révolutionner l’utilisation des données dans nos filiales et à promouvoir une plus grande autonomie dans leur gestion. Dans un monde où les données sont devenues un actif clé pour les entreprises, Le groupe de notre client a décidé de franchir une étape majeure en structurant et en rationalisant son offre de services Data. L’objectif est clair : répondre aux besoins spécifiques des différentes filiales du groupe tout en garantissant une efficacité accrue, une meilleure autonomie et une flexibilité dans l’accès et l’utilisation des données. Ce projet représente donc une opportunité unique de contribuer à une transformation organisationnelle à grande échelle, qui impactera directement notre performance et celle de nos filiales. En tant que Freelance, vous serez un acteur central dans cette mission. Votre expertise sera mise à profit pour proposer et mettre en œuvre des solutions adaptées aux besoins des filiales. Vous serez amené à travailler en étroite collaboration avec des équipes multidisciplinaires pour : Analyser les besoins spécifiques des filiales : comprendre leurs attentes et leurs contraintes pour leur fournir des solutions sur mesure. Développer des outils et services Data innovants : alignés avec les meilleures pratiques du marché, tout en répondant aux objectifs stratégiques du groupe. Promouvoir l’autonomie dans l’utilisation des données : accompagner les filiales dans l’adoption de ces nouveaux outils et les former pour maximiser leur impact. Optimiser et rationaliser l’offre actuelle : identifier les synergies et simplifier les processus pour gagner en efficacité et en pertinence. Veuillez postuler uniquement si vous êtes Freelance et que vous cochez toutes les cases suivantes : Vous disposez d’une solide expérience en gestion et en optimisation de solutions Data, idéalement dans un contexte multi-entités ou groupes. Vous êtes à l’aise avec les méthodologies agiles et savez travailler dans des environnements complexes et collaboratifs. Vous avez une excellente capacité d’analyse et savez proposer des solutions innovantes et pragmatiques, adaptées à des besoins diversifiés. Vous êtes orienté(e) résultats, autonome et doté(e) d’un excellent relationnel, ce qui vous permet de collaborer efficacement avec des équipes variées. Vous maîtrisez les technologies et outils Data les plus récents (Big Data, BI, ETL, Cloud, etc.) et êtes à jour sur les tendances du secteur.

Freelance

Mission freelance
Data Science / Python / Dataiku

HIGHTEAM
Publiée le
Data science
PySpark
Python

3 ans
450-600 €
Île-de-France, France

Nous recherchons un profil expert pour une mission en Data Science – Python, avec une forte expertise technique et une bonne compréhension du domaine bancaire. Objectifs de la mission : Contribuer aux activités suivantes : Maîtrise de l’environnement Python, Git, et PySpark. Utilisation experte de Dataiku pour des projets analytiques et opérationnels. Application de la modélisation statistique et du Machine Learning (ML) à des cas concrets. Création de solutions avancées en reporting et data visualisation adaptées au domaine bancaire. Livrables attendus : Développement et maintenance évolutive de modèles ML robustes. Participation aux comités de suivi pour le monitoring des modèles avec les marchés concernés. Gestion complète des produits data, y compris : Contribution aux modélisations ML et aux études analytiques. Gestion de projet de bout en bout : planification, reporting, propositions de valeur, et documentation technique. Compétences et technologies requises : Expertise en Python et outils connexes (Git, PySpark). Solide expérience avec Dataiku. Connaissances approfondies du domaine bancaire. Maîtrise des techniques de modélisation, de Machine Learning, et de data visualisation. Capacité à gérer des projets complexes, incluant coordination et documentation technique.

383 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous