Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer
• Concevoir, créer et maintenir des pipelines de données évolutifs pour prendre en charge les processus d'intégration, de transformation et de chargement des données (ETL) à l'aide d'outils tels qu'Apache Airflow, Apache NiFi et Talend. • Développer et optimiser des modèles de données, des schémas et des bases de données pour garantir un stockage et une récupération efficaces des données à l'aide de technologies telles que Snowflake, Cassandra et MongoDB. • Collaborer avec des data scientists, des analystes et d'autres parties prenantes pour comprendre les exigences en matière de données et fournir des solutions de données de haute qualité. • Mettre en œuvre des processus de qualité et de validation des données à l'aide d'outils tels que Great Expectations et dbt pour garantir l'exactitude et la cohérence des données. • Surveiller et dépanner les pipelines et les systèmes de données à l'aide d'outils de surveillance tels que Prometheus et Grafana pour identifier et résoudre rapidement les problèmes. • Rester au courant des dernières tendances et technologies du secteur pour améliorer en permanence notre infrastructure de données.
Mission freelance
Data Analyste - Data Scientist
TEKsystems recherche pour l'un de ses clients grands comptes un Data Analyste/Data Scientist CONTEXTE : Le Data Analyst/Data Scientist aura pour mission principale de finaliser le projet d'alimentation des contrôles implémentés par les SI pays et SI Corporate dans le dashboard central Spotfire (DGD). En parallèle, il sera amené à contribuer à l'ensemble des projets Data Science de l'équipe, notamment : • Modélisation des valeurs résiduelles des véhicules : Développement de modèles prédictifs pour estimer la valeur future des véhicules. • Détection de fraude : Mise en place de solutions de machine learning pour identifier les transactions frauduleuses. • Analyse de documents : Extraction d'informations structurées à partir de documents non structurés (OCR, NLP). • Classification d’emails : Automatisation de la classification des emails en fonction de leur contenu. • Scores et segmentations marketing : Création de modèles de scoring et de segmentation clients pour optimiser les campagnes marketing. OBJECTIF DE LA PRESTATION L'objectif de cette prestation est de renforcer les capacités de l'équipe Data Science en faisant appel à une expertise complémentaire. Le prestataire aura pour mission de : • Finaliser le développement du dashboard Spotfire (DGD) : Assurer la qualité, la fiabilité et la performance des données alimentant le dashboard. • Contribuer à l'ensemble des projets Data Science : Apporter son expertise technique et méthodologique pour mener à bien les différents projets en cours. • Accélérer la mise en œuvre de projets innovants : Explorer de nouvelles technologies (IA générative, deep learning) et proposer des solutions adaptées aux besoins de l'entreprise. • Favoriser le partage des connaissances : Transmettre son savoir-faire aux équipes en place et contribuer à la montée en compétences de l'ensemble du service.
Offre d'emploi
Data Engineer/Analyst confirmé/sénior
Ci-dessous les principales tâches prévues : Rédaction des contrats d’interfaces pour mise à disposition des données par la source de données Rédaction de spécifications techniques détaillées de contrôles CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes IMPORTANT : Une 1ere expérience d'au moins 1 an en tant que Data Analyst dans le secteur de la grande distribution / alimentaire est appréciée.
Offre d'emploi
Consultant Data Gouvernance Confirmé
INVENTIV IT est à la recherche d'un Consultant Data Gouvernance avec qui nous pourrions collaborer sur des projets industriel, ferroviaire, automobile ou bien encore tertiaire. Nous recherchons un collaborateur avec une expérience effective minimale de 3 ans. Vous maîtrisez les sujets de Data Gouvernance et de Data Market place. Vous avez une appétences pour les outils : Collibra, Data Galaxy ou encore EBX Vous avez une vision 360 de la Data : Acculturation Data, Data Quality, Data Lineage ou encore définition des rôles Data Vous êtes Anglophone et êtes à l'aise dans un contexte de travail International Vous êtes un profil technico-fonctionnel travaillant en méthode Agile avec une appétence pour la mise en place et le conseil de Gouvernance. Vous avez une vision Business et de développement projets. Collaborons ensemble ! Anglais Animation d'atelier Data Market place Data Gouvernance Outils Data Gouvernance : Collibra, Data Galaxy, EBX Acculturation Data Data Management Data Quality Data Lineage Vernis technique Fonctionnel : Chefferie de projet Confluence : process Méthode Agile
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
AMOA Data - Référentiels Tiers - Secteur Banque
Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance
Mission freelance
Product Owner Data plateforme
Notre client recherche un Product Owner (PO) pour rejoindre une équipe Data Platform . L'équipe a pour objectif de maintenir et faire évoluer la plateforme data , en travaillant sur la définition de la roadmap , l' architecture et la construction des solutions techniques. Le PO collaborera avec une équipe pluridisciplinaire composée de 10 experts, incluant : Un Tech Lead Un Architecte Plusieurs DevOps et Data Engineers La plateforme repose sur une stack Databricks , des processus ETL (Talend) , et une infrastructure basée sur AWS . Vos missions : maintenir la roadmap produit en alignement avec les objectifs stratégiques. Rédiger et affiner le Product Backlog en collaboration avec les parties prenantes. Travailler en étroite collaboration avec le Tech Lead , l'Architecte et l'équipe DevOps/Data Engineers pour définir des solutions techniques efficaces. Faciliter les échanges avec les parties prenantes pour recueillir les besoins et s'assurer que les livrables répondent aux attentes. Organiser, et animer les rituels Agile (daily stand-up, sprint planning, reviews, retrospectives). Assurer un suivi des KPIs et de la performance des livrables pour une évolution continue de la plateforme. Processus : 1 entretien Go - No Go
Mission freelance
Data Engineer
Nous recherchons pour le compte d'un de nos clients dans le secteur des médias un Ingénieur Data freelance pour une durée de 12 mois sur la base d'un projet. Rôle : Data Ingénieur Lieu de travail : Paris Durée du contrat : 12 mois Travail hybride Date de début : Novembre/Décembre Principales responsabilités : Construire et améliorer les produits de données pour soutenir une culture axée sur les données et des expériences utilisateur personnalisées. Travailler au sein de l'équipe d'ingénierie analytique pour : Collecter des données brutes à partir de systèmes dorsaux, d'interactions avec les utilisateurs et d'autres sources. Transformer les données en ensembles de données et métriques de haute qualité et bien définis. Fournir un accès aux données via des tableaux de bord en libre-service, des API et d'autres plateformes. Collaborer avec des analystes, des développeurs et des parties prenantes au sein de différentes équipes (produit, marketing, ventes, finance, juridique, etc.). Assurer la fiabilité, l'exactitude et l'accessibilité des systèmes de données. Environnement Technique : Principale pile technologique : Google Cloud Platform, BigQuery, Scala, Airflow, Google Dataflow, dbt, Tableau, Mixpanel, Terraform. Si le rôle vous intéresse, veuillez postuler directement!
Mission freelance
Data Engineer
Participer à des projets de data engineering basés sur un framework méthodologique Développer, industrialiser et maintenir des pipelines de données (principalement ETL et ML) Effectuer de l’exploration de données et du prototypage rapide Mettre en application les meilleures pratiques : versioning, tests automatisés, CI/CD Participer activement à l’automatisation des infrastructures basées sur des services de Cloud Computing Implémenter des architectures de type Lakehouse pour casser les silos Déployer des algorithmes de machine learning at scale et sur des flux de streaming Collaborer avec l’ensemble des équipes depuis les spécifications fonctionnelles jusqu’aux validations métiers des solutions implémentées Contribuer à la mise en place de méthodologies Agile de type Scrum
Offre d'emploi
DATA ENGINEER APACHE/FLINK
Nous recherchons un(e) Ingénieur(e) Data/Expert(e) Apache Flink passionné(e) par le traitement de données en flux et par lots. Vous serez chargé(e) de contribuer au développement, à l’optimisation et à la maintenance d’applications Apache Flink, tout en collaborant étroitement avec des équipes multidisciplinaires. Ce poste vous permettra de travailler sur des projets stratégiques liés au traitement des données, en garantissant des performances élevées, une grande évolutivité et une fiabilité optimale des applications Flink en production. Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique. Profil recherché Expertise technique : Maîtrise d’Apache Flink pour le traitement par lots et en flux. Excellentes compétences en programmation : Java ou Scala, et SQL. Bonne connaissance des technologies Big Data : Hadoop et Spark. Expérience confirmée dans l'utilisation des services de données AWS. Expérience professionnelle : Participation à des projets de production avec Apache Flink. Démonstration de la capacité à optimiser des pipelines Flink pour des performances élevées.
Offre d'emploi
Data Engineer Snowflake / SSIS
💼 Data Engineer Passionné 🎯 pour un beau projet technique au sein d'une entreprise innovante. 🌟 Contexte : Rejoignez une entreprise innovante où vous serez au cœur de la gestion et optimisation des pipelines de données 📊, en garantissant leur qualité et leur intégrité. Vous travaillerez dans un environnement scientifique stimulant, avec un accent particulier sur les biotechnologies et des projets techniques de grande envergure. 🔎 Qualifications & Expérience requises : * 🎓 Master en informatique, data engineering ou équivalent. * 🏗️ Expérience préalable : ○ Minimum 3 ans en Data Engineering. ○ Solides compétences en SQL, ETL, et gestion de données à grande échelle. * 🧬 Bonus : Expertise dans les environnements scientifiques ou biotechnologiques appréciée. 🛠️ Compétences techniques : * Gestion des données : ○ ❄️ Snowflake (expertise dans la gestion de données et la création de pipelines). ○ 🔄 SSIS (Intégration des données et gestion des flux ETL). ○ 🗄️ SQL (requêtes complexes, optimisation des performances). * Pipeline & Data Engineering : ○ Conception, gestion et optimisation de pipelines de données, en garantissant leur qualité et leur intégrité. * Cloud & DevOps : ○ ☁️ Expérience avec AWS (environnement full-cloud pour la gestion des données). ○ 🔗 Familiarité avec les microservices et API RESTful. 💡 Profil recherché : * 🗣️ Langues : Niveau professionnel en anglais (indispensable pour réunions et reportings). * 🧠 Compétences clés : ○ Forte capacité à résoudre des problèmes techniques complexes. ○ Esprit analytique et goût pour les challenges. ○ Capacité à collaborer efficacement avec des équipes multidisciplinaires. 🚀 Conditions & avantages : * Contrat : CDI avec salaire compétitif selon expérience. * 🧑🔬 Environnement stimulant : Opportunité de travailler sur des projets innovants dans des domaines scientifiques. 💡 Pourquoi les rejoindre ? Intégrez une structure où la technologie, l'innovation et la collaboration sont au cœur des missions. Vous aurez l'opportunité de travailler sur des projets à forte valeur ajoutée dans un environnement flexible et moderne. 👉 Intéressé ? Envoyez-moi votre CV et vos disponibilités pour un échange rapide ! 💬
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
DATA QUALITY ANALYST (H/F)
Résumé du poste : Dans le cadre du projet pour notre client financier, le consultant rejoindra l'équipe, responsable de l’évaluation de la qualité des données alimentant le moteur RWA via la plateforme Reporting. Le rôle implique la mise en place de contrôles granulaires, l’automatisation des processus, la production de fichiers d'anomalies et la rédaction de guides opérationnels pour assurer un transfert fluide des activités vers les équipes situées à Lisbonne et Madrid. Tâches principales : Mise en place et contrôle de la qualité des données : Implémenter, via Python et Dataiku, des mesures sur le volume et le montant des données en entrée du moteur RWA (SRS) et en sortie d’OPTIMA. Évaluer la qualité des données selon des critères tels que la complétude et l’intégrité. Automatisation et production : Automatiser la chaîne de traitement des contrôles granulaires. Produire des fichiers d’anomalies pour répondre aux besoins du Dry Run #3 (janvier-février) et assurer le suivi lors de la mise en production de CRR3. Documentation et transfert de connaissances : Rédiger des guides opérationnels en anglais pour garantir une transition efficace des travaux vers les équipes de Lisbonne et Madrid. Fournir un support aux équipes locales pour assurer la pérennité des processus en mode BAU (Business as Usual).
Mission freelance
Data Scientist
Mon client est un éditeur de logiciels spécialisé dans les domaines du Big Data, Data Science, Text Mining et Deep Learning. Nous activités sont axées sur le Churn en temps réel, la détection de fraudes, le dédoublonnage de stocks, la prédiction de pannes, la réduction de coûts et bien d’autres applications. Ainsi, pour développer davantage leur activité, ils recrutent un Data Scientist. Qualité requises : Compétences en gestion de projet. Curiosité intellectuelle. Esprit d’équipe et d’entrepreneuriat. Impulser des démarches innovantes sur des segments à fortes valeurs ajoutées. Élaborer des modèles prédictifs afin d’anticiper l’évolution des données et tendances relatives à l’activité de l’entreprise. Développer des outils d’analyse et des algorithmes pour améliorer les solutions de recherches et de ciblage. Modéliser des résultats d’analyse des données pour les rendre lisibles et exploitables. Identification des axes d’optimisation et des cas d’usages de fonctionnement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres