Trouvez votre prochaine offre d’emploi ou de mission freelance Data cleaning à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Business Analyst Gestion des actifs
Contexte de la mission: L'équipe IT Reporting est responsable du support et de la maintenance d'une solution de reporting de masse et du développement de tableaux de bord. Activités principales : ● Collecter et challenger les besoins métier ● Rédiger les spécifications pour les développeurs ● Gérer les phases de tests IT et de non-régression, et suivre les implémentations ● Maintenir la documentation (spécifications fonctionnelles et techniques) ● Gérer le support en production Activités transversales : ● Préparer et organiser des ateliers avec les équipes Business et IT ● Maintenir la documentation des processus et des spécifications IT ● Définir et coordonner les tests opérationnels ● Participer activement aux cérémonies agiles ● Contribuer aux projets de l'équipe
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Consultant IA
Nous recherchons pour notre client un consultant expert en intelligence artificielle. Vos principales activités sont les suivantes : - Analyser l’ensemble de la chaine de production, notamment les axes liés aux ressources et compétences, architectures et plateformes, outils et méthodes, gouvernance et besoin métier. - Etablir un radar de positionnement de l’organisation au niveau Data & IA (Ressources et compétences, Culture Data, Architecture et plateformes, Outils et méthodes, Gouvernance des données, enjeux et use case). - Identifier des solutions technologiques / techniques adaptées à chaque usage, y-compris une proposition d’architecture cible, d’applications, de langage, d’infrastructure, d’hébergement, de coût, - Évaluer l’opportunité de mettre à disposition des collaborateurs des solutions d’IA générative (EX : chat GPT) et les conditions liées - Formaliser les objectifs stratégiques autour de la Data et de l’IA - Etablir une trajectoire de transformation sur l’ensemble des aspects - Formaliser la feuille de route détaillée
Mission freelance
Data Engineer
Nous recherchons pour le compte d'un de nos clients dans le secteur des médias un Ingénieur Data freelance pour une durée de 12 mois sur la base d'un projet. Rôle : Data Ingénieur Lieu de travail : Paris Durée du contrat : 12 mois Travail hybride Date de début : Novembre/Décembre Principales responsabilités : Construire et améliorer les produits de données pour soutenir une culture axée sur les données et des expériences utilisateur personnalisées. Travailler au sein de l'équipe d'ingénierie analytique pour : Collecter des données brutes à partir de systèmes dorsaux, d'interactions avec les utilisateurs et d'autres sources. Transformer les données en ensembles de données et métriques de haute qualité et bien définis. Fournir un accès aux données via des tableaux de bord en libre-service, des API et d'autres plateformes. Collaborer avec des analystes, des développeurs et des parties prenantes au sein de différentes équipes (produit, marketing, ventes, finance, juridique, etc.). Assurer la fiabilité, l'exactitude et l'accessibilité des systèmes de données. Environnement Technique : Principale pile technologique : Google Cloud Platform, BigQuery, Scala, Airflow, Google Dataflow, dbt, Tableau, Mixpanel, Terraform. Si le rôle vous intéresse, veuillez postuler directement!
Offre d'emploi
Architecte solutions data
🎲 LES MISSIONS : Au sein de la DSI et plus particulièrement de la cellule de l’Architecture et de l’Innovation composée d'architectes vous travaillerez conjointement avec les équipes IT (architectes, data analyst, chef de projets) mais aussi les équipes métiers (RH, finance etc.). Vous travaillerez sur la partie datalake / data warehouse pour ensuite traiter les données et les mettre à disposition des différents services en proposant des outils et Dashboards adéquats, mais aussi sur la gouvernance de données. Vos missions seront les suivantes : Participer avec les architectes référents à la Design Authority sur le domaine data Assurer la veille d’architecture et de solution applicative Contribuer à l'alignement du SI avec la stratégie de la Branche et du Groupe et être un relais de l’architecture d’entreprise Accompagner les études du domaine, de l’opportunité à la mise en exploitation en s’appuyant sur les différents experts fonctionnels et techniques Proposer, formaliser et promouvoir les patterns Enrichir et maintenir le Cadre de Référence d’Architecture et la Cartographie du SI Evangéliser les bonnes pratiques en termes d’architectures Mise en place d'une stratégie de gouvernance de données (Qualité, Sécurité, Traçabilité, Conformité) Garantir la conformité des solutions développées au regard du RGPD (Identification des données, traçabilité, consentement...)
Offre d'emploi
Chef de Projet DATA
Chez K-LAGAN , nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, continuez de lire...🔍 📎Nous sommes à la recherche d'un-e chef de projet DATA (h/f) pour renforcer nos équipes, sur un projet ambitieux chez un de nos clients, secteur assurances à Paris, IDF, France. 🤖Fonction : Agir comme un référent pour les données de référence, maîtriser leurs définitions, volumétries, domaines d’application, flux entrants & sortants Cartographier et organiser les données pour rendre leur exploitation optimale, tout en s'assurant du respect des exigences et contraintes de traitements qui leur sont liées ; Définir et piloter la mise en œuvre dans les délais impartis les process relatifs aux données : création/ingestion, maintenance, modification, standardisation & nettoyage Contrôler la pertinence et la qualité des différentes demandes, les analyser et piloter/réaliser les modifications des données en s’assurant de la cohérence globale et en maîtrisant les impacts Définir et mettre en place les outils & méthodes permettant de contrôler la cohérence des données, leur qualité, et leur juste mise en application Investiguer les problèmes de données et s’assurer de la mise en place d’actions correctives pérennes Élaborer une stratégie de gestion des données en tenant compte des orientations business et des actifs de données existants Gérer la relation avec le(s) prestataire(s) de données et s’assurer de la qualité des données & services contractualisés ainsi que du respect des SLA Participer à l’évangélisation et la formation des utilisateurs du patrimoine de données en s’adaptant à leurs différents niveaux de connaissance et maitrise des outils Identifier et notifier le responsable de la sécurité des incidents détectés. Assurer le respect des politiques et procédures du système de gestion de la sécurité de l'information. Maintenir le devoir de confidentialité des tâches effectuées dans l'organisation. Prévenir, détecter et analyser les vulnérabilités liées à la sécurité de l'information. Informer et rendre compte à la haute direction sur les enjeux liés à la cybersécurité.
Offre d'emploi
skiils recherche sont Business analyst IA generative
. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
PRODUCT OWNER DATA
Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.
Offre d'emploi
Business Analyst - Data
Dans le cadre d'un projet client dans le secteur bancaire – mise en place de reporting à destination de l’équipe Pilotage Commercial du groupe - nous aurions besoin de recruter un Buisness Analyst 6-9 ans d’expérience. Vos principales missions seront d’intervenir sur les phases de conception, spécification et recette DSI / métier (mise à disposition des jeux de données, validation des cas de tests, analyse des résultats, …) Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- situation compliquée fin de mission pression client comment gèrer ?
- Close de non concurrence freelance à portgae salarial
- SASU IR vs Micro entreprise + ARCE
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique