Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Mission freelance
Ingénieur de production – MCO DATA -N3
CONTEXTE : Objectif global : Participer à la mise en condition opérationnelle du périmètre de la production Data Métiers MISSIONS : Le candidat idéal aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur Google Cloud Platform (GCP) avec des bases solides en DevOps. Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Offre d'emploi
DATA ENGINEER SPARK/SCALA
Conception et développement de pipelines de données : Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data. Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.). Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python). Optimisation et maintenance : Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.). Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées. Automatisation des processus : Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow . Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins . Collaboration avec les équipes de data science et d’infrastructure : Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès. Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données. Veille technologique : Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines. Langages de programmation : Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python. Technologies Big Data : Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python. Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production. Outils de CI/CD : Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données. Bases de données et gestion des données : Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).
Mission freelance
PRODUCT OWNER DATA
Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.
Offre d'emploi
Architecte solutions data
🎲 LES MISSIONS : Au sein de la DSI et plus particulièrement de la cellule de l’Architecture et de l’Innovation composée d'architectes vous travaillerez conjointement avec les équipes IT (architectes, data analyst, chef de projets) mais aussi les équipes métiers (RH, finance etc.). Vous travaillerez sur la partie datalake / data warehouse pour ensuite traiter les données et les mettre à disposition des différents services en proposant des outils et Dashboards adéquats, mais aussi sur la gouvernance de données. Vos missions seront les suivantes : Participer avec les architectes référents à la Design Authority sur le domaine data Assurer la veille d’architecture et de solution applicative Contribuer à l'alignement du SI avec la stratégie de la Branche et du Groupe et être un relais de l’architecture d’entreprise Accompagner les études du domaine, de l’opportunité à la mise en exploitation en s’appuyant sur les différents experts fonctionnels et techniques Proposer, formaliser et promouvoir les patterns Enrichir et maintenir le Cadre de Référence d’Architecture et la Cartographie du SI Evangéliser les bonnes pratiques en termes d’architectures Mise en place d'une stratégie de gouvernance de données (Qualité, Sécurité, Traçabilité, Conformité) Garantir la conformité des solutions développées au regard du RGPD (Identification des données, traçabilité, consentement...)
Mission freelance
Data analyst
Analyse de données : Collecter, nettoyer et analyser les données provenant de diverses sources pour fournir des insights exploitables. Reporting : Créer des rapports et des tableaux de bord interactifs pour suivre les performances et les tendances. Optimisation des processus : Identifier et proposer des améliorations pour optimiser les processus métiers et les opérations. Collaboration : Travailler en étroite collaboration avec les équipes internes pour comprendre leurs besoins et fournir des solutions adaptées. Gestion des données : Assurer la qualité et l'intégrité des données, et mettre en place des procédures de gestion des données efficaces. Formation et support : Former les utilisateurs finaux sur les outils et les rapports développés, et fournir un support continu.
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
Consultant Data Gouvernance Anglophone
INVENTIV IT est à la recherche de son nouveau chef de projet Data Gouvernance avec qui nous pourrions collaborer sur nos nouveaux projets. Vous maîtrisez parfaitement les sujets de Data Gouvernance et de Data Market place. Vous avez une appétences pour les outils : Collibra, Data Galaxy ou encore EBX Vous avez une vision 360 de la Data : Acculturation Data, Data Quality, Data Lineage ou encore définition des rôles Data Vous êtes capable de mettre en place un projet Data de A à Z sur les sujets de Gouvernance et de market place de la données (Data). Vous êtes Anglophone et êtes à l'aise dans un contexte de travail International (prévoir des déplacements à l'étranger notamment en Allemagne) Vous êtes un profil technico-fonctionnel travaillant en méthode Agile avec une appétence pour la chefferie de projet (animation d'atelier) Vous avez une vision Business et de développement projets. Collaborons ensemble ! Anglais Animation d'atelier Data Market place Data Gouvernance Outils Data Gouvernance : Collibra, Data Galaxy, EBX Acculturation Data Data Management Data Quality Data Lineage Vernis technique Fonctionnel : Chefferie de projet Confluence : process Méthode Agile
Mission freelance
Data Scientist - Python & Rstudio
Notre client, secteur bancaire, recherche un Data Scientist (H/F) dans le cadre d'une longue mission. Conception et développement de solutions de reporting basées sur un data lake, incluant le développement d'algorithmes et la création de visualisations de données avancées. - Développer des algorithmes à l'aide de Python et Rstudio - Créer et gérer des reportings sur un data lake. - Concevoir des dashboards interactifs via Power BI ou Qlik Sense. - Collaborer avec des équipes métiers et techniques pour répondre aux besoins de visualisation et d’analyse. - Assurer l’optimisation et l’automatisation des solutions développées. Livrables - Dashboards opérationnels et stratégiques. - Scripts d’algorithmes performants et documentés. - Documentation technique et fonctionnelle liée aux solutions livrées.
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Mission freelance
Data Engineer Python Spark - Confirmé/fa
Data Engineer Python Spark - Confirmé client Banque basé à Paris Gare de Lyon, un Data Engineer - Confirmé avec un minimum de 4 ans d’expériences. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy
Offre d'emploi
Data Integrity Specialist
Description du poste Nous recherchons un(e) Consultant(e) en Data Integrity pour rejoindre notre équipe et apporter une expertise technique de haut niveau à nos clients de l'industrie pharmaceutique. En tant que Consultant(e) en Data Integrity, vous serez responsable de la mise en place et de la gestion des programmes de conformité des données, en assurant leur intégrité, leur exactitude et leur sécurité conformément aux réglementations en vigueur. Missions principales : Évaluer et améliorer les systèmes de gestion des données pour garantir leur intégrité et leur conformité aux normes réglementaires (GMP, GAMP, FDA 21 CFR Part 11, etc.). Développer et mettre en oeuvre des politiques, des procédures et des formations en matière d'intégrité des données. Réaliser des audits internes et externes pour identifier les lacunes en matière de data integrity et proposer des plans d'action correctifs. Collaborer avec les équipes de qualité, d'informatique, de production et de laboratoire pour assurer une gestion cohérente et sécurisée des données. Assurer la validation des systèmes informatisés et des équipements de laboratoire en lien avec l'intégrité des données. Rédiger et réviser la documentation technique, y compris les SOP, les rapports d'audit et les protocoles de validation. Participer à la sensibilisation et à la formation des employés sur les bonnes pratiques en matière de data integrity. Suivre les évolutions réglementaires et technologiques pour maintenir les standards de l'entreprise à jour.
Offre d'emploi
Business Analyst - Data
Dans le cadre d'un projet client dans le secteur bancaire – mise en place de reporting à destination de l’équipe Pilotage Commercial du groupe - nous aurions besoin de recruter un Buisness Analyst 6-9 ans d’expérience. Vos principales missions seront d’intervenir sur les phases de conception, spécification et recette DSI / métier (mise à disposition des jeux de données, validation des cas de tests, analyse des résultats, …) Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste.
Mission freelance
Consultant Oracle ERP - Data Migration
Bonjour, Nous recherchons pour notre client grand compte du secteur touristique un Consultant Oracle ERP pour rejoindre ses équipes à Paris. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée à notre recherche décrite ci-dessous - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence FDU/4606 en objet de votre message CONTEXTE Notre client a engagé un vaste projet de déploiement Oracle ERP Cloud. Environnement technique : Oracle Finance Cloud, ETL Talend, SQL. PRESTATION Il s'agit de renforcer l'équipe de reprise de données. L'ensemble des données financières doivent être migrées depuis les systèmes legacy vers la solution Oracle Cloud. Pour cette migration, l'ETL Talend est utilisé, avec des règles de transcodage à affiner. La prestation pourra évoluer dans le cadre de ce vaste projet de déploiement.
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Mission freelance
Un Data Engineer sur Paris
Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer sur Paris Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en ?uvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres