Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
RSSI - Resp.Sécurité SI - Confirmé

ChatGPT a dit : Pour son client grand compte, Ridchada recherche un RSSI de transition HDS pour piloter et maintenir un SMSI certifié HDS . Objectif de la mission : Assurer le pilotage du SMSI HDS dans le cadre d’une transition et de la préparation aux audits de surveillance. Gérer la mise à jour de l’analyse de risques vers EBIOS RM à l’aide de l’outil EGERIE . Accompagner la transition vers les nouveaux référentiels ISO 27001:2022 et HDS V2 , avec un audit prévu fin avril 2025. Maintenir la gouvernance cybersécurité sur le périmètre SMB. Contexte : Certification HDS obligatoire. Mission à forte contrainte réglementaire et normative. Livrables attendus : Pilotage et maintien du SMSI certifié HDS . Mise à jour de l’analyse de risques selon la méthode EBIOS RM . Préparation aux audits de surveillance ISO et HDS.
Senior Back-End – Spécialisation Workflow (JBPM / Camunda)

🔎 Contexte de la mission Pour son client grand compte, Ridchadata recherche un Développeur senior spécialisé en moteurs de workflow (JBPM / Camunda), afin de renforcer les équipes de la DSI. L’objectif est d’assurer le développement, l’intégration et la maintenance de workflows métiers critiques. 🎯 Vos principales missions Recueillir et analyser les besoins fonctionnels et techniques Concevoir et développer des processus métiers avec JBPM / Camunda Intégrer les workflows avec des systèmes tiers : Kafka, MongoDB, PostgreSQL, MariaDB Développer des microservices en Java / Spring Boot Réaliser les tests unitaires et fonctionnels Participer à la migration de l’ancien outil vers une nouvelle solution en cours d’étude Rédiger la documentation technique et fonctionnelle Assurer un support technique et accompagner les autres développeurs
Data Quality Manager Senior

Bonjour, Nous recherchons pour notre client grand compte un Data Quality Manager Senior répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4765 en objet du message Vos responsabilités Définition et mise en œuvre d’une stratégie Data Quality Déployer une stratégie de qualité des données en cohérence avec la gouvernance data Mettre en place et enrichir un framework de Data Quality intégrant des règles, standards, processus de remédiation et bonnes pratiques Sensibiliser et former les équipes aux enjeux de la qualité des données. Implémentation et mise en œuvre Data Quality Superviser et coordonner l’implémentation d’une solution de gestion de la qualité des données. Piloter la montée en compétence des data stewards sur la solution data quality et sur le framework qualité. S’assurer d’une implémentation cohérente et de bout en bout des règles établies au sein du framework data quality. Mise en marche des fonctionnalités d’observabilité en vue d’une maîtrise complète de la qualité. Suivi et mesure de la qualité des données Concevoir et mettre en oeuvre des dashboards de monitoring de la qualité des données. Définir et mettre en œuvre des modèles de scoring et de notation pour mesurer la fiabilité des données. Piloter la convergence et l’amélioration de la qualité Veiller à la bonne documentation des règles et processus de qualité Collaboration avec les parties prenantes Travailler en étroite collaboration avec les Data Owners, Data Stewards et les équipes métiers pour aligner la qualité des données aux besoins opérationnels. Opérationnaliser les processus de remédiation et accompagner les équipes internes à la data et externes également dans l’appropriation de ces process. Participer aux comités Data Gouvernance et aux initiatives d’amélioration continue
Dataops/MLops H/F

MISSION Nous recherchons des personnes avec un recul : - sur les plateformes modernes de Data Science (Cloud-Native, sur Kubernetes); - sur le MLOps et AIOps en général; - et idéalement avec des idées / un background sur les LLMs et l’Intelligence Artificielle dans son ensemble Pour travailler avec les Data Fullstack pour : - Définir l’architecture fonctionnelle de nos offres Data citées plus haut en suivant l’état de l’art et/ou les consignes d’architecture/sécurité du Groupe (pas forcément adaptées au cloud native) - Traduire en développements ad hoc sur la base des briques techniques disponibles, en intégration de produits du marché - Contribuer à la construction des Envs Python nécessaires à la Data Science au format docker (eg. OS, conda, pip, etc.) - Contribuer au développement des chaines de CI/CD permettant le cycle de vie des plateformes (déploiement, MAJ, environnements utilisateur, etc.) - Pour nos offres déjà qualifiées pour de la Prod (Domino Datalab pour le moment): - Assurer le déploiement “as code” - Assurer la supervision d’instances dédiées par client - Améliorer la sûreté de fonctionnement des plateformes (appliquer les méthodes SRE pour Cloud + K8s, rédiger des RFE auprès de l’éditeur, etc.)
Expert(e) DevOps & Ingénieur(e) Infrastructure Multi-Cloud

Ridchadata recherche pour son client un(e) expert(e) DevOps / Ingénieur Infrastructure Multi-Cloud pour accompagner une démarche d’internalisation des compétences autour des environnements Azure & AWS. 🎯 Votre mission principale : Assurer le MCO des infrastructures Cloud Azure & AWS (stack : .NET, SQL Server, Azure DevOps, EKS, Keycloak, Kafka, MongoDB...) Mettre en place des pipelines CI/CD robustes (Gitlab CI, Jenkins, ArgoCD, Helm, Terraform...) Contribuer à la cybersécurité et à la supervision (Prometheus, Grafana, Loki) Produire une architecture technique détaillée et des procédures opérationnelles DevOps
Business partner Data

En quelques mots Cherry Pick est à la recherche d'un "Business partenaire" pour un client dans le secteur de l'Energie Description Objectifs et livrables Organiser et animer les réunions trimestrielles de la communauté des assistantes (proposer les sujets, réaliser la présentation, et coordonner les interventions des experts en fonction des sujets) Animer le canal Teams de la communauté des assistantes par la publication d’informations utiles à la population Assurer la coordination des équipes techniques sur escalades d’incidents ou demandes non résolus dans les délais ou sur demandes spécifiques (hors process) Mettre en place outil et process de vérification des inventaires pour nos métiers (PowerBI) Définir, mettre en place et suivre les indicateurs nécessaires au pilotage de la prestation o Indicateurs quantitatifs (utilisation de PowerBI) o Indicateurs qualitatifs (satisfaction utilisateur) Accompagner le titulaire du poste dans les missions suivantes (+ backup sur absences) o Être l’interlocuteur pour les métiers Corp et TGS sur les actualités TGITS impactant les end-users (Evolution du poste de travail, mises à jour majeures, organisation,…) o Assurer la relation de SF vis-à-vis des DSI de branches au travers de l’organisation de comités de synchro, de news letter, ou autres canaux à définir o Relayer les besoins des branches Corp et TGS aux Business Analysts concernés o Assurer la promotion du savoir-faire TGITS (mise à jour du sharepoint, de l’application catalogue de services SF, organisation de webinars,…)
Data Engineer - DOT Anonymizer

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer - Dot Anonymizer" pour un client dans le secteur de l'assurance. Description 🎯 Objectif de la mission Intégrer un projet d'envergure entreprise au sein de la Direction Transformation Data du groupe, dans le cadre de la protection des données personnelles (conformité RGPD) via des traitements d’anonymisation . 🏢 Contexte client le Groupe est un acteur majeur de la protection sociale , assurant la gestion du régime obligatoire d’assurance maladie des personnels de l’Éducation nationale, de la Recherche, de la Culture, du Sport et de l’Environnement. Vous intégrerez une équipe projet d’expertise technique , avec un rôle de Concepteur / Développeur confirmé pour contribuer à la protection des données sensibles du groupe. 🛠️ Vos missions principales Développement de programmes d’anonymisation de données avec DOT Anonymizer Participation aux analyses techniques : revues de code, tests unitaires Identification & formalisation des besoins avec les sachants Analyse & conception de solutions techniques Évaluation de la faisabilité et chiffrage des efforts de développement Rédaction de documents projet (techniques & produit) Participation aux cérémonies agiles Intégration dans différents environnements techniques Résolution des problèmes de qualité de données 📌 Livrables attendus Traitements d’anonymisation opérationnels et conformes RGPD Documentation technique et produit Recommandations d’architecture et de stratégie d’anonymisation
Chef de Projet Technico-fonctionnel (Flux et interfaces)
Mission / Freelance / France / Paris / Chef de Projet / SAP / Flux / Interfaces / Données Lawrence Harvey recherche pour le compte de son client un Chef de Projet Technico-fonctionnel pour intervenir au niveau des flux et interfaces pour un client basé à Paris. Freelance ou portage - Pas de sous-traitance, merci. ASAP Localisation - Paris Mission Longue Contexte : Piloter la réalisation des solutions, en coordination avec les utilisateurs fonctionnelles, les éditeurs / intégrateurs et les équipes techniques. Sécuriser la fluidité du parcours utilisateurs et rédiger des livrables, notamment les dossiers d’interfaçage technico-fonctionnelles entre les applications. Missions : En tant que Chef de Projet, vous serez responsable de la gestion et du suivi de projets de bout en bout : - Rédaction de cahiers des charges - Participation au cadrage de projet - Gestion des données articles et tiers - Suivi de la mise en place du projet - Suivi et contrôle de la qualité des livrables - Gestion des interfaces entre les différents outils - Mise en place de Data Mapping & d'interfaces Profil recherché : - Au moins 5 ans d'expérience en gestion de projet de bout en bout - Expérience/Connaissance sur SAP (SD/MM/FICO) - Appétance/connaissance au niveau des flux, interfaces, dépendances entre les différentes applications (Comprendre les flux fonctionnels et définir les modèles de données pour faire le lien entre les différentres applications etc...) - Bonne compréhension de la Data en général avec une expérience avérée autour des interfaces et de la gestion des données - Autonome Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).
Data Quality Manager (H/F) - 75

La prestation attendue consistera à participer à/au : * déploiement de l’outil de gestion de la qualité des données * l’application des meilleures pratiques en matière de gouvernance et de contrôle des données, * renforcement du framework de Data Quality en définissant les critères de scoring, en structurant les dimensions de qualité et en mettant en place des processus de remédiation efficaces, garantissant ainsi des données fiables et exploitables, * la conception et au pilotage des dashboards de suivi afin de mesurer et d’optimiser en continu le niveau de qualité des données. La prestation jouera un rôle clé dans l’amélioration et le maintien de la qualité des données au sein de France télévisions, en participant à/au(x) : * Définition et mise en oeuvre d’une stratégie Data Quality * Déployer une stratégie de qualité des données en cohérence avec la gouvernance data de france télévisions, * Mettre en place et enrichir un framework de Data Quality intégrant des règles, standards, processus de remédiation et bonnes pratiques * Sensibiliser et former les équipes aux enjeux de la qualité des données. * Implémentation et mise en oeuvre Data Quality * Superviser et coordonner l’implémentation d’une solution de gestion de la qualité des données. * Piloter la montée en compétence des data stewards sur la solution data quality et sur le framework qualité. * S’assurer d’une implémentation cohérente et de bout en bout des règles établies au sein du framework data quality. * Mise en marche des fonctionnalités d’observabilité en vue d’une maîtrise complète de la qualité. * Suivi et mesure de la qualité des données * Concevoir et mettre en oeuvre des dashboards de monitoring de la qualité des données. * Définir et mettre en oeuvre des modèles de scoring et de notation pour mesurer la fiabilité des données. * Piloter la convergence et l’amélioration de la qualité * Veiller à la bonne documentation des règles et processus de qualité * Collaboration avec les parties prenantes * Travailler en étroite collaboration avec les Data Owners, Data Stewards et les équipes métiers pour aligner la qualité des données aux besoins opérationnels. * Opérationnaliser les processus de remédiation et accompagner les équipes internes à la data et externes également dans l’appropriation de ces process. * Participer aux comités Data Gouvernance et aux initiatives d’amélioration continue
Développeur Concepteur Big data Talend

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP
Business Analyst IA Générative / RAG PARIS

Dans le cadre de nos projets stratégiques liés à l’intelligence artificielle générative et aux solutions de RAG (Retrieval-Augmented Generation), nous recherchons un(e) Business Analyst Technique capable de faire le lien entre les équipes métier et les équipes techniques (Data/IA/Dev), afin de garantir la bonne compréhension, conception et mise en œuvre des solutions. Contrat à durée indéterminée (CDI) Salaire SELON PROFIL plus · Primes de performance · Primes de publication · Autres avantages : mutuelle santé, tickets restaurant Langues : Français & Anglais professionnel requis 🔧 Responsabilités principales : · Recueillir, analyser et formaliser les besoins métiers liés aux cas d’usage IA (chatbots, assistants, moteurs de recherche augmentés, etc.) · Définir les user stories et les spécifications fonctionnelles et techniques en lien avec les équipes IA · Participer à la définition des architectures fonctionnelles des solutions RAG (vectordatabase, modèles LLM, pipelines d’ingestion, etc.) · Interagir avec les équipes Data, MLOps, Dev et Métiers pour assurer le suivi du cycle de vie des projets IA · Animer des ateliers de cadrage, de co-conception et de restitution auprès des parties prenantes · Contribuer aux phases de tests, recette, documentation et conduite du changement · Suivre les indicateurs de performance des solutions IA déployées
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Data engineer Pipeline P&C / Palantir
Data engineer Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation afin d'en faciliter l'exploitation par les équipes. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, ... Il assure la supervision et l'intégration des données qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons,etc.). Niveau d'expérience : 3-6 ans Palantir Foundry - Confirmé - Impératif Python / Pyspark - Confirmé - Impératif Fançais Courant (Impératif) Anglais Courant (Impératif) We are looking for a Data Engineer to develop data pipelines for our P&C foundations in Palantir Foundry. The Data Engineer is expected to build, deliver, maintain and document data pipelines within the P&C foundations scope. Particularly, he is expected to deliver in a state-of-the-art approach reinsurance data in our P&C "Analytical Data Model" (medallion representation of our P&C data). Expected deliverables : - Data pipelines for reinsurance underwriting foundations, delivered in due time - Code documented and unit tested - Quality and health checks implemented Expected experience & skills : - +5 years as a data engineer - Proven experience on Palantir Foundry, mainly on data engineer oriented modules (code repository, ontology, ...) - Knowledgeable of good development practices (gitflow, unit testing, documentation) - Strong level in Python and Pyspark - Knowlegeable of data mesh architecture, and medallion architecture - Experience in decisional data modeling is a plus - Experience in Databricks is a plus - Team Player - Curiosity, interest to challenge - Communication and ability to speak with various stakeholders - Strong analytical thinking
Architecte DATA

Missions : Evaluer les besoins et les usages des données au sein des différent projet. Décrire la manière dont les données sont gérées, de la collecte à la transformation à la distribution et à la consommation (High Level Design) Assurer que les solutions mises en place respectent la réglementation relative à la collecte et à l’exploitation des données RGPD et au exigence du Data Office du groupe. Mettre en place des outils pour faciliter l’usage des données Surveiller la structure des bases de données et proposer des solutions correctives ou évolutives adaptées. Collaborer avec les équipes IT de développement et les responsables métiers pour assurer une intégration harmonieuse des données. Concevoir l'architecture des données et structurer les modèles en fonction exigences métier. Vérifier les modèles logiques et physiques afin d'assurer l'efficacité des flux de données.
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Consultant Senior Data / Cartographie des flux & Documentation SI

🔍 Contexte : Dans le cadre de l'amélioration de son Système d’Information Data & IA , un grand acteur de la protection sociale recherche un Consultant Senior spécialisé en cartographie des flux, audit de documentation et animation de communauté . L’objectif est de concevoir et structurer une cartographie de référence des flux de données , ainsi que les processus de gestion documentaire associés, dans une logique transverse aux différents domaines SI. 🎯 Objectifs de la mission : Réaliser un diagnostic des flux entrants/sortants et de leur documentation existante Identifier les lacunes , compléter ou faire compléter les contenus manquants Concevoir une documentation de référence structurée, évolutive et centralisée Définir et mettre en œuvre les processus de cycle de vie documentaire , règles d’actualisation et comitologie Déployer un espace partagé (Sharepoint, Teams, Wiki…) pour accès et gestion Proposer des ajustements dans les processus projets/RUN pour garantir la pérennité de la démarche Animer une communauté de référents métier/SI autour de cette cartographie Accompagner les équipes dans l’appropriation de ces nouveaux référentiels
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE ou ARE : Nouvelles règles 2025il y a une minute
- dalf.delf. a1 b1 c1 b2: raul.chavez28 (at) yahoo (dot) comil y a 4 heures
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a 6 heures
- Etat du marché - Avril 2025il y a 7 heures
- Question sur Contrat d'apporteur d'affaire signéil y a 8 heures
- Office 365il y a 9 heures
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres