Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur java/data H/F
MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO
Mission freelance
Asset Management & Data Management
Pour l'un de nos clients, nous recherchons un profil EXPERT (de simples connaissances ne suffiront pas) en Asset Management et en Data Management . Prérequis : Asset Management : Expertise en Asset Management, des fonds (notamment OPCVM et FIA) et des coûts et frais associés supportés par les investisseurs. Au moins 5 années minimum en société de gestion. Data Management : Expertise en gestion de données, identification des champs requis, alimentation des bases de données, manipulation et restitution des données, contrôle de cohérence. Niveau d’anglais requis : Excellent niveau d’anglais aussi bien à l’écrit qu’à l’oral (nombreux échanges à l’international)
Offre d'emploi
Data Tech Lead
Nous recherchons un Leader Technique en Données expérimenté(e) pour rejoindre notre équipe. Si vous avez une solide expertise technique en SQL, Java, Spark et des compétences en datavisualisation (Power BI, Spotfire), cette opportunité est faite pour vous ! Vos Missions : En tant que Tech Lead, sous la responsabilité du chef de projet, vous : Jouerez un rôle clé dans l’orientation technique de l’équipe, en définissant des lignes directrices et en aidant vos collègues. Contribuerez activement aux projets en cours, notamment par le développement d’améliorations, de corrections et de nouvelles fonctionnalités. Piloterez et accompagnerez une équipe de 4 personnes : vous-même (Tech Lead) et 3 Data Engineers offshore basés en Inde. Vos Responsabilités : Développement et amélioration des pipelines de données sur le framework Big Data (Java, Spark). Gestion des bases de données SQL Teradata et des topics Kafka. Participation aux projets de datavisualisation (SAP BI43, Power BI, Spotfire), bien que ce ne soit pas la priorité principale. Migration Cloud GCP prévue à partir de mi-2025. Conception et mise en œuvre de solutions alignées avec les recommandations architecturales de données de l’entreprise. Collaboration étroite avec les équipes métiers (Air France et KLM) pour comprendre et répondre aux besoins. Tests et validation des développements. Animation et assistance technique auprès de l’équipe.
Offre d'emploi
Chef de projet DATA & ETL
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Pour le compte de l' un de nos clients dans le domaine de l'assurance nous recherchons un CHEF de projet (H/F) pour une mission de longue durée à pourvoir rapidement. Vos missions : Vous pilotez des projets techniques innovants du périmètre Data (déploiement de plateforme data sur GCP, contribuez au déploiement d’une plateforme d’observabilité…) Vous pilotez le maintien en condition opérationnel du socle Data existant (montées de versions, migrations…), contribuez au pilotage de la dette IT, montées de versions, migrations, etc ... Vous pilotez une partie du RUN, suivi de production et la qualité de service pour le domaine applicatif Data, Référentiels et IA. Vous contribuez à renforcer l’écosystème en identifiant de nouvelles opportunités d’industrialisation de la plateforme Environnement technique : Greenplum, Cloudian S3, Google BigQuery et GCS, Couchbase, Semarchy-xDI, Elastic / ELK, Power BI Qui tu es : Diplômé de formation qui va bien Doté(e) d’une 10 ans d’expériences minimum Chef de projet / Product owner expérience en méthodologie agile (Scrum/Kanban) Maitrise également le cloud ( GCP) Au-delà des compétences techniques, tu es / as : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Data Engineer Snowflake / Databricks
Notre société recherche pour son client une personne passionnée par la Data et motivée par des missions stimulantes dans un environnement dynamique et humain. Acquisition et transformation des données pour des entrepôts de données. Participation au développement avec des responsabilités proches d'un Product Owner (PO). Gestion de projet : structuration, suivi des coûts et des délais. Maintenance des systèmes et gestion des coûts OPEX. Utilisation de technologies modernes : Hana, Snowflake, Databricks, etc. Bac +5 Expérience confirmée (3-5 ans) en modélisation avec des outils comme Snowflake, Databricks, SAP HANA, BW ou Business Object. Connaissance d'outils complémentaires : Power BI, Qliksense, SAP Analytics Cloud (appréciée). Français et anglais courants (pour collaborer avec une équipe offshore). Autonomie chez les clients, avec une aspiration à prendre des responsabilités en gestion de projet. Rémunération attractive : A partir de 45k€. Avantages inclus : intéressement, PEE, repas, transport, mutuelle, etc. Ambiance et collaboration : missions en équipe, soirées entre collègues, faible turn-over. Évolution et accompagnement : revue de performance biannuelle, formations techniques et certifiantes (SAP). 📍 Lieu : Paris 12e 👉 Postulez maintenant pour rejoindre une structure humaine et innovante !
Mission freelance
Développeur Data Engineer – Traitement et Calcul de Données Financières
Nous recherchons un Développeur Data Engineer pour contribuer au développement, à l’adaptation, et à l’amélioration des processus d’intégration, de traitement et de calcul des données dans le cadre d'une application dédiée à la valorisation et à l’ajustement de la Fair Value . Cette application repose sur une architecture distribuée basée sur Hadoop et intègre également une interface utilisateur (IHM) pour le paramétrage, la consultation des données et le monitoring. Ce système, utilisé pour traiter des volumes massifs de données financières, est essentiel pour calculer la Fair Value des instruments financiers, leur observabilité et leur matérialité. Ces calculs s'appuient sur diverses données, notamment : Les sensibilités. Les chocs de données de marché. Le risque de contrepartie. Les données concernent un large éventail d'actifs, de positions, de trades et de paramètres, couvrant plusieurs régions (Paris, New York, Asie) et consolidées à partir de multiples sources de données. Développer et optimiser les processus d’intégration et de traitement de données volumineuses sur une architecture distribuée ( Hadoop ). Implémenter les calculs complexes nécessaires pour déterminer la Fair Value , l'observabilité et la matérialité des instruments financiers. Adapter les processus existants pour répondre aux évolutions fonctionnelles ou réglementaires. Concevoir et intégrer des fonctionnalités dans l’interface utilisateur permettant le paramétrage, le monitoring et la consultation des données. Travailler sur la performance et l’ergonomie de l’IHM pour améliorer l’expérience utilisateur. Manipuler des données provenant de multiples sources : instruments financiers, trades, positions, market data, sensibilités, chocs et ajustements. Garantir l’intégrité, la fiabilité et la traçabilité des données traitées et calculées. Travailler en étroite collaboration avec les équipes métiers pour comprendre les besoins et spécifications des utilisateurs finaux. Assurer le support technique et fonctionnel pour garantir le bon fonctionnement de l’application. Participer à la rédaction de la documentation technique et fonctionnelle.
Offre d'emploi
Data engineer
A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du prestataire en terme de Data Engineering Dans ce cadre, la prestation consiste à contribuer à/au(x) : - Développement de traitements Spark/Scala - Revue de code et re-factoring - Traitement d'un gros volume de données - Développement sur un pipeline CICD - Respect des normes de développements Environnement technique - Framework Spark. - Langage scala - ETL Talend - Talend for BIG DATA - Cadre international - Méthode agile : Scrum - GIT - Ecosystème Hadoop Cloudera
Mission freelance
Data Ingénieur
Contrainte forte du projet GCP bigquery, looker, powerBI Les livrables sont Flux d'ingestion de données Dashboard powerBI ou looker Compétences techniques Google BigQuery - Confirmé - Impératif Microsoft powerBI - Confirmé - Important Google Cloud Platform - Junior - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Le data ingénieur aura en charge en collaboration avec les équipes de développement : * de corriger et de créer des nouvelles features d'intégration de données sur plusieurs produits digitaux (Customer project & configurators) de notre plate-forme e-commerce. * de créer des pipeline d'intégration des données des produits digitaux à l'aide de nos outils d'entreprise vers Google BigQuery (DBT par exemple) * de transformer les données sur des modèles conceptuel de données * de mettre en place des dashboard powerBI (ou looker) en collaboration avec les équipes métier
Offre d'emploi
Data Manager clinique (H/F)
Rattaché au Responsable Data Management vous assurez la gestion des données des projets confiés à l'entreprise pour le compte de Promoteurs, en étroite collaboration avec des membres des équipes projets, dans le respect de la réglementation en vigueur (BPC, BPE, SOPs métiers etc...), afin de garantir la qualité des données collectées et à analyser. A ce titre, vous suivez tout au long de sa durée, le projet de recherche qui vous est confié. De plus, vous représentez le contact privilégié du Promoteur et de l'équipe projet pour les activités data management de l'étude. De même, en tenant compte des spécificités de l'étude et des exigences du Promoteur, vous appliquez les procédures opératoires se rapportant aux activités de data management du projet. En outre, vous êtes responsable de la validation des développements et collaborez à la validation des développements conjointement avec le Département Informatique. A savoir, vous participez à l'élaboration du guide de saisie en collaboration avec IT (eCRF) et chef de projet, et assurez le suivi de la validation des eCRFs avant mise en production. Qui plus est, vous assurez le contrôle qualité de la base de données cliniques et le rapport de ce contrôle qualité pour les saisies de CRFS/Questionnaires papiers et contrôlez l'exhaustivité des signatures des eCRFs avant import, ainsi que l'exhaustivité des données importées (nb de patients, nb d'AES, SAES, ...). Vous participez également, à la mise en oeuvre et au déroulement de la validation du Système Informatisé pour un projet donné (ex : cahier des charges, analyse de risque, protocole de validation, jeux de test à réaliser, rapport de validation etc.) conformément aux procédures applicables. Enfin, vous assurez la validation et la documentation des modifications et participez à la formation des utilisateurs.
Mission freelance
Data Anlyst/Expert Power BI
Contexte de la mission : Dans le cadre d’un remplacement de congé paternité, notre client, acteur clé dans le domaine du service client, recherche un Consultant Data et Automatisation. La mission débute le 10 janvier avec une période de transition de 15 jours. Vous interviendrez au sein d’une équipe en charge d’améliorer l’expérience client, d’automatiser les processus, et d’optimiser le pilotage des call centers. Objectifs principaux de la mission : Améliorer l’expérience client : mise en place de pratiques Lean Management et Data-Driven Management pour optimiser les interactions clients via téléphone, e-mail et chat. Automatiser et digitaliser les processus : simplifier et fluidifier les workflows des call centers pour des économies et une meilleure productivité. Optimiser les prévisions et le pilotage : utilisation des données pour anticiper les pics d’activité dans une logique d’aplatissement des flux et de réduction des remontées clients. Missions principales : Analyse et visualisation de données : Effectuer du data crunching pour analyser les flux d'activité client et anticiper les variations liées à une activité imprévisible. Créer des visualisations de données pour faciliter la prise de décision via des outils tels que Power BI . Automatisation et optimisation : Automatiser les calculs et prévisions liés à l’activité des call centers. Contribuer à l’automatisation des prévisions sur l’activité Optimiser les processus pour améliorer le Customer Feedback Management . Gestion des anomalies et suivi : Identifier, suivre et résoudre les anomalies remontées par les outils et le CRM. Garantir la fiabilité et la qualité des données utilisées dans le CRM et les tableaux de bord. Collaboration avec l'équipe technique et métier : Utiliser le CRM PEGA (2 systèmes distincts intégrés avec le SID en temps réel). Participer à l’amélioration des intégrations entre API et outils de reporting. Faciliter la connexion entre Power BI et le SID pour améliorer le suivi et le pilotage des performances. Compétences requises : Expertise en data visualisation avec des outils comme Power BI . Bonne connaissance des CRM, en particulier PEGA et leurs intégrations API. Expérience en automatisation de processus et en gestion des flux de données. Compétences en prévisions et data crunching , notamment pour des activités irrégulières et imprévisibles. Sensibilité au Lean Management et à l’amélioration de l’expérience client. Environnement technique : CRM PEGA avec intégration temps réel via SID. Outils de visualisation et de data crunching, principalement Power BI . API pour la gestion et l’automatisation des flux. Durée de la mission : 4 mois Profil recherché : Minimum 3 ans d’expérience en gestion et visualisation de données, avec une expertise avérée en automatisation et optimisation des processus . Une bonne compréhension des environnements CRM et des call centers. Forte capacité d’adaptation face à des pics d'activité et des problématiques complexes liées à des flux imprévisibles.
Mission freelance
Data Engineer
Description de la mission : - Participer au build de notre Customer Data Platform. - Identifier et adapter les sources de données nécessaires depuis nos différents fournisseurs de données (GCP, Big Query) - Monitorer les flux d'imports (Stambia, DBT, Python) - Concevoir et déployer la stratégie d'exposition des données (Kafka) Tout au long de la mission, le candidat devra faire preuve de vigilance quant à la réglementation RGPD, ainsi que disposer d'une appétence particulière pour le domaine du marketing. Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)
Offre d'emploi
Ingénieur IBM gaurdium data protection
Dans un contexte où la protection des données est une priorité stratégique, nous recherchons un(e) Ingénieur IBM Guardium Data Protection pour renforcer notre équipe spécialisée dans la sécurité des données. En tant qu’Ingénieur IBM Guardium, vous serez responsable de la gestion, de l’optimisation et de l’évolution de la solution IBM Guardium Data Protection afin de protéger les données sensibles de l’entreprise. Installer, configurer et administrer la solution IBM Guardium pour assurer une surveillance optimale des données. Garantir la maintenance des infrastructures Guardium (mises à jour, patchs, sauvegardes). Déployer et configurer les agents Guardium sur les bases de données et systèmes cibles. Assurer la supervision et l’analyse des logs pour identifier des anomalies et des accès non autorisés. Configurer des politiques de protection et des alertes de sécurité adaptées aux besoins métiers. Élaborer des rapports réguliers sur les activités des bases de données et les incidents de sécurité. Proposer des améliorations pour renforcer la performance et l’efficacité de la solution. Participer aux audits de conformité (GDPR, PCI-DSS, etc.) en fournissant des preuves et des rapports issus de Guardium. Collaborer avec les équipes de sécurité pour répondre aux exigences de gouvernance et de conformité des données. Résoudre les incidents techniques liés à l’utilisation de Guardium (niveau 2/3). Former et accompagner les équipes internes sur les bonnes pratiques d’utilisation de la solution. Collaborer avec les fournisseurs et partenaires pour assurer un support avancé.
Mission freelance
Chef de projet senior migration data centers et infrastructure
Résumé du poste : Nous recherchons un Chef de Projet Senior expérimenté pour piloter des projets complexes de migration et déménagement de data centers . Vous serez le point central pour la planification, la coordination et la supervision des activités liées à la migration d’infrastructures IT critiques, en garantissant la continuité des services et le respect des délais et budgets. Missions principales : 1. Gestion de projet : • Élaborer le cadrage des projets, définir les objectifs, livrables et KPI. • Concevoir un planning détaillé et coordonner les équipes internes et externes. • Assurer le suivi budgétaire et gérer les risques et les imprévus. 2. Supervision des activités de migration : • Organiser les phases de préparation, migration et post-migration des infrastructures. • Valider les stratégies de migration en collaboration avec les équipes techniques. • Garantir la continuité de service pendant et après les opérations. 3. Pilotage des parties prenantes : • Collaborer avec les équipes internes (infrastructure, réseau, applications) et les prestataires. • Animer des comités de pilotage et de projet. • Fournir un reporting clair et structuré sur l’avancement du projet à la direction. 4. Documentation et retours d’expérience : • Documenter les processus, plans et procédures liés à la migration. • Capitaliser sur les projets pour améliorer les futures opérations de migration.
Mission freelance
Consultant en stratégie DATA - 320
POSTE OUVERT QUE AUX FREELANCE Mission basée à Paris Mission potentiellement renouvelable Objectifs de la mission Mission de cadrage organisationnel et stratégique Prestations demandées - Définition du Target Operating Model - Définition des ambitions technologiques 2025 - Définition d'une roadmap 2025 - note de cadrage
Offre d'emploi
Architecte data cloud azure
Bonjour, Pour le compte de notre client, nous recherchons un architecte data cloud azure. Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci dessous. Livrable n°1 : Cadrage et chiffrage des projets + Lot 1 : Accompagnement au cadrage du besoin auprès de nos clients + Lot 2 : Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin + Lot 3 : Contribution au chiffrage global du projet + Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution + Lot 1 : Formalisation des documents standards (DAL, DAT) + Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI. + Lot 3 : Concevoir, développer, déployer et maintenir des reportings construits autour de Power BI en environnement BI Microsoft ; Livrable n°3 : Accompagner la prise en charge du build projet + Lot n°1 : Assurer une passation aux équipes de réalisation + Lot n°2 : Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…)
Offre d'emploi
Data Engineer AWS
Nous recherchons un Data Engineer AWS expérimenté pour intervenir sur un projet d’envergure dans le secteur bancaire. Le rôle inclut : L’ingestion, la transformation et l’exposition des données à l’aide de services AWS . L’optimisation des flux de données et l’intégration dans un environnement Cloud AWS . La mise en œuvre de solutions robustes pour le traitement et l’analyse des données. Vous serez amené(e) à collaborer avec les équipes techniques et métiers pour garantir des livrables de qualité dans un environnement dynamique et innovant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
- Réforme des taux de cotisations et assiettes TNS 2025
- Dépassement plafond AE deux années consécutives ?
- 3 mois intercontrats, 6 entretiens client final 6 echecs
- Obligé de faire la plonge pour survivre...
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres