Trouvez votre prochaine offre d’emploi ou de mission freelance Hadoop à Paris

Votre recherche renvoie 9 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Démarrage Dès que possible
Durée 3 ans
Salaire 38k-43k €⁄an
TJM 300-400 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur Big Data - entre 5 et 9 ans

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (RiskLake). 🤝 Expertises indispensables Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du RiskLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets

Démarrage Dès que possible
Durée 3 ans
Salaire 38k-50k €⁄an
TJM 400-420 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur Cloud Data GCP

Cherry Pick

En quelques mots Cherry Pick est à la recherche d'un "Ingénieur Infra et Exploitation" pour un client dans le secteur de XXX Description 📌 Contexte de la mission Intégrée à la Direction Technique du Numérique , cette mission vise à renforcer l’équipe en charge de la plateforme Data du groupe. Cette plateforme joue un rôle central dans la stratégie data du groupe, entre exploitation de la donnée utilisateur, connaissance client et outils de pilotage. Le prestataire interviendra sur l’ensemble des cycles Build & Run de l’infrastructure Cloud, en lien étroit avec les équipes Data, Exploitation et Développement. 🎯 Responsabilités principales BUILD : Analyse des besoins d’hébergement pour les développements Data Industrialisation et automatisation des infrastructures (public et privé) Construction et planification des environnements cloud Référent technique auprès des équipes projets RUN : Supervision et exploitation quotidienne de la plateforme Suivi des alarmes, diagnostics et résolution des incidents Contribution à la documentation technique Veille technologique continue

Démarrage
Durée 12 mois
TJM 610-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

YGL consulting

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
TJM 700-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur Big Data GCP - ENTRE 3 ET 6 ANS

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-45k €⁄an
TJM 400-450 €⁄j
Lieu Paris, France
Freelance
CDI
CDD

Expert Infra Cloud et Big Data

OMICRONE

Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 400-620 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Architecte Data - Datalake

ABSIS CONSEIL

Nous recherchons un Architecte Data confirmé pour accompagner notre client, banque d'investissement dans la mise en place de son datalake. Vous aurez à votre charge la conception, la mise en œuvre et l'optimisation du datalake, tout en portant la définition de la stratégie auprès de la DSI. Vos missions : Concevoir et architecturer le datalake en fonction des besoins spécifiques du client. Mettre en place les infrastructures nécessaires pour le datalake, en assurant performance, sécurité et scalabilité. Collaborer étroitement avec les équipes techniques et les parties prenantes pour garantir l'intégration et l'alignement des solutions data Gérer et optimiser le stockage des données, en veillant à la conformité réglementaire et à la gouvernance des données. Assurer une veille technologique pour intégrer les meilleures pratiques et les innovations pertinente dans la solution proposée. Pré-requis : Bac + 5 école d'ingénieur ou équivalent Expérience avérée (plus de 10 ans) en tant qu'Architecte Data avec une spécialisation en datalake idéalement dans le secteur bancaire. Maitrise des technologies de datalake (Hadoop, Spark, Kafka, etc....), compétences en architecte cloud (AWS, Azure, GCP), connaissance des outils d'intégration de données (ETL). Capacité à élaborer et à défendre des stratégies data auprès de la direction Anglais courant (environnement internationale)

Démarrage Dès que possible
Durée 3 ans
Salaire 70k-75k €⁄an
TJM 700-750 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Démarrage Dès que possible
Durée 24 mois
TJM 325-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, Île-de-France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous