Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Team Lead Data
Le pôle Data Accelerator & IT BI / Monitoring, positionné au sein de la DSI a pour rôle de mettre à disposition les outils et les données de qualité nécessaires aux usages des différents métiers et de leurs applicatifs. La/le Team Lead Data – Platform & BI coordonne directement les activités du pôle dédiées au développements de rapports BI à destination des métiers ainsi que le manager de la plateforme Data. Il est responsable de l’ensemble des livrables associés à ce domaine. Il gère la relation avec le métier. La/le Team Lead recherché intègrera le pôle Data Accelerator et IT BI / Monitoring de la DSI. Il aura en charge les activités de deux équipes : Plateforme : Ingestion, stockage et exposition de la data BI Monitoring : Restitution à des fins de Business Intelligence & Monitoring dans les outils adéquat (gestion en direct de cette activité) Il est en charge du suivi et de la livraison des évolutions répondant à un besoin métier BI de bout en bout sur la chaîne IT, c’est-à-dire sur le business delivery de son pôle dédié mais également avec les Core IT des autres pôles. Il est aussi responsable de la production sur les composants gérés. Ses missions principales sont : Sur le plan technique :> Expérience significative attendue Garantir les choix techniques structurants et arbitrer en cas de désaccord e s’appuyant sur les techleads et le responsable de plateforme Définir la vision technique et architecturale des produits développés sur le périmètre S’assurer de la diffusion et de la mise en œuvre des bonnes pratiques ( développement et process) sur son domaine d’expertise au sein de l’équipe mais aussi plus largement au sein de la DSI et des métiers Déterminer et fixer la capacité donnée aux US techniques Participer à la planification et à la définition des solutions à mettre en place Sur le plan organisationnel et managérial Suivre et organiser la charge / capacité à faire de l’équipe en s’appuyant sur le responsable de la plateforme sur son périmètre Animer les scrum master/chef de projet de son domaine S’assurer du staffing des différentes features teams de son domaine, en adéquation avec le besoin Sur le plan fonctionnel et méthodologique : Accompagner le développement des compétences de l’équipe et faire monter en compétence les membres les plus juniors Maitriser les différents éléments (roadmap métier, dépendances inter-applicatives, charges...) pour planifier ses développements Principales interactions Les autres équipes du pôle : le Data Office pour les question de gouvernance et de qualité des données manipulées, ainsi que la data science qui s’appuie sur les données de la plateforme. Les autres équipe IT métiers Les métiers et en particulier l’équipe Monitoring de la Direction des Opérations en charge du pilotage du monitoring côté métier Le data architect et les experts cloud AWS Databricks
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Offre d'emploi
Lead Data Engineer (H/F)
Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data Analyst - H/F
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst pour l'un de nos clients du secteur des banques et des assurances. Vous interviendrez sur le site client situé dans la région Nouvelle Aquitaine. À ce titre, vos missions quotidiennes seront les suivantes : • Identifier les sources de données pertinentes, coordonner la collecte de données complémentaires et accompagner les équipes dans la mise en œuvre des processus de recueil; • Nettoyer et mettre en qualité les données pour garantir leur pertinence; • Concevoir, développer et coordonner la mise en production des solutions analytiques; • Valider les solutions en veillant au respect des demandes et des exigences techniques et fonctionnelles; • Proposer des analyses, KPI, tableaux de bord et présentations innovantes pour valoriser la donnée; • Participer à la veille fonctionnelle et proposer des solutions Data innovante. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Architecte Data Mlops
Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).
Offre d'emploi
Data Manager
Dans le cadre du projet réglementaire de dématérialisation des factures, notre client doit s'assurer de la maîtrise des données de ses nombreux systèmes de facturation. Nous cherchons un responsable du chantier data au sein du projet de dématérialisation des factures. Il sera accompagné du responsable gouvernance des données du Data Office et collaborera avec les autres responsables de chantiers (Chantier IT, Chantier DAF, Chantier Change Utilisateur) Sa mission sera de s'assurer que le niveau de qualité des données est en adéquation avec les enjeux et objectifs définies par le COPIL projet. L'objectif est de maitriser les données nécessaires à la bonne production des factures. En se basant sur les gap analysis produits et en réalisant des entretiens métiers, il devra étudier et documenter les lineages des données concernées et identifier les insuffisances des processus métier et IT. Il proposera ensuite des pistes de solutions, et, dans la mesure du possible suivra leur mise en oeuvre. La maitrise des données s'articule autour de 4 axes : - Outillage et documentation - Mesure et remédiation - Processus IT et Métier - Organisation et Gouvernance
Offre d'emploi
Data Governance Officer
Dans le cadre de la réalisation de divers projet, Pour notre client dans le secteur de l'industrie, nous recherchons un consultant data gouvernance qui sera en charge de la mise en place de l'architecture Policies ainsi que d'autres sujets en cours Vos missions : Excellente maitrise de l'architecture policies : Architecture Médaillon Très bonne capacité à cataloguer des données Expériences en gouvernance fédérée via un méta model Compétences en Data Quality et Data Observability capacité à gérer des projets dans la data
Mission freelance
Consultant HPC (High Performance computing) et Data engineering
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
Consultant SysOps Big Data Cloudera/ Couchbase
Nous recherchons un consultant SysOps Big Data Cloudera/ Couchbase pour un client basé à Vélizy (78). La prestation se déroulera au sein de la DSI dans l’équipe IT/IS Business Apps Run qui est responsable de la gestion, du déploiement et du maintien en condition opérationnelle des infrastructures de production des applications métiers. Elle est composée d'une cinquantaine d'ingénieurs en France, en Inde et aux Etats-Unis répartis en six pôles de compétences La prestation se déroulera dans le pôle "BI & Data" où interviennent sept ingénieurs d'exploitation qui gèrent plus de 500 serveurs, supportent une trentaine d'applications et plusieurs centaines d'utilisateurs internes.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.