Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Votre recherche renvoie 296 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance
Architecte Solutions DATA

CELAD
Publiée le
Big Data

1 an
700 €
Paris, France

Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Consultant HPC (High Performance computing) et Data engineering

Freelance.com
Publiée le
Big Data
Linux

90 jours
260-1k €
Paris, France

Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Data Scientist / Actuariat - Paris, IDF

K-Lagan
Publiée le
Data science

2 ans
10k-50k €
Paris, France

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

IT4B Consulting
Publiée le
Data analysis
Data science
PySpark

6 mois
10k-80k €
Paris, France

Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance
CDI

Offre d'emploi
Senior Data Engineer Azure / Lead

KLETA
Publiée le
Apache Spark
Azure Data Factory
Databricks

3 ans
10k-75k €
Paris, France

En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.

Freelance

Mission freelance
AMOA Data Référentiels tiers

MGT Conseil
Publiée le
Data management

1 an
500-700 €
Paris, France

Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
SQL

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance

Mission freelance
DATA ENGINEER ETUDES Ingénieur Data Etudes et développements Finance

KEONI CONSULTING
Publiée le
Data Center
DevOps
SQL

12 mois
100-400 €
Paris, France

Contexte : Support niveau 2. Le consultant Data Engineer SQL au sein du chapter « Data & BI Client - Data Engineering », sera en charge principalement de MISSIONS : - La maintenance évolutive des flux de données • SQL (modélisation, Intégration/transformation de données, calculs d’indicateurs ,…) • Ordonnancement des traitements (via ctrlM) • Flux de données (Fichiers plats, xml, web services, …) • Optimisation SQL - L’impact de la migration vers Windows 11 avec changement de login et de domaine (Outils, Process, Pipelines, …), le développement de fixs (optimisations et améliorations) des process techniques et le support niveau 2. - Réaliser des tests unitaires et participer aux recettes, - Assurer des tâches de support, - Contribuer à la Méthodologie Agile – kanban (Daily meeting, poker planning, rétrospective, ..) , - Rédiger des documentations techniques, - Participer au dispositif d’astreintes.

Freelance

Mission freelance
Consultant Data / BI

Bek Advisory
Publiée le
Data analysis
Microsoft Power BI
SQL

6 mois
500-600 €
Paris, France

Nous recherchons pour notre client, un consultant Data pour accompagner les équipes métier. Missions : Recueil des besoins opérationnels auprès des directions Produits (CP, acheteurs, chefs de groupes, directeurs), de la direction Appro Rédaction du besoin Formalisation du besoin en user story Définition des indicateurs : règles de calcul détaillées, règles d’agrégation Identification / qualification des sources de données nécessaires pour enrichir le modèle existant (coordination équipes IT + Data Factory) Suivi de la mise en œuvre par Data Factory (daily notamment) Recette : plan de recette, réalisation, accompagnement des référents métiers pour recette métier finale Support des équipes métiers à la mise en œuvre et au-delà Garant de la cohérence (ou des justifications d’écarts) de ces indicateurs avec l’existant (patrimoine Microstrat, Qlick View notamment) et avec les autres projets fortement consommateurs de données Rédaction de livrables Plan de recette et réalisation de la recette Support aux utilisateurs

CDI
Freelance

Offre d'emploi
Chef de projet Data Gouvernance

Inventiv IT
Publiée le
Confluence
Data management
Gouvernance

2 ans
60k-80k €
Paris, France

INVENTIV IT est à la recherche de son nouveau chef de projet Data Gouvernance avec qui nous pourrions collaborer sur nos nouveaux projets. Vous maîtrisez parfaitement les sujets de Data Gouvernance et de Data Market place. Vous avez une appétences pour les outils : Collibra, Data Galaxy ou encore EBX Vous avez une vision 360 de la Data : Acculturation Data, Data Quality, Data Lineage ou encore définition des rôles Data Vous êtes capable de mettre en place un projet Data de A à Z sur les sujets de Gouvernance et de market place de la données (Data). Vous êtes Anglophone et êtes à l'aise dans un contexte de travail International (prévoir des déplacements à l'étranger notamment en Allemagne) Vous êtes un profil technico-fonctionnel travaillant en méthode Agile avec une appétence pour la chefferie de projet (animation d'atelier) Collaborons ensemble ! Anglais Animation d'atelier Data Market place Data Gouvernance Outils Data Gouvernance : Collibra, Data Galaxy, EBX Acculturation Data Data Management Data Quality Data Lineage Vernis technique Fonctionnel : Chefferie de projet Confluence : process Méthode Agile

Freelance

Mission freelance
Data Scientiste

Bek Advisory
Publiée le
Azure
BI
Python

12 mois
500-600 €
Paris, France

Nous recherchons un Profil de Data Scientiste. Missions : Soutenir le PO / Chef de projet MOA pour étudier la faisabilité technique Collecter des données de différentes sources : BDD, API, fichiers plats, etc... et produire des recommandations pour consolider Utiliser des techniques statistiques pour identifier des modèles et corrélations dans les données Développer des modèles prédictifs pour anticiper des futurs résultats Optimiser les performances des modèles Assurer la veille en recherche et innover pour introduire de nouvelles approches d’analyses et de modélisations de donnée

Freelance
CDI

Offre d'emploi
Expert Technique Big Data

ENGIT
Publiée le
Big Data

12 mois
45k-55k €
Paris, France

engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Expert technique Big Data Pour rejoindre, les équipes de notre client.

Suivant
296 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
10 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous