Trouvez votre prochaine offre d’emploi ou de mission freelance Cloudera

Votre recherche renvoie 13 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en mĂȘme temps.

Exemple : sql, php correspond Ă  sql OU php

Freelance

Cloudera / Teradata

Hanson Regan Limited

Hanson Regan recherche un Cloudera / Teradata pour une mission de 9 mois renouvelable basĂ©e Ă  Tour (2 jours sur site 3 jours Ă  distance). nous recherchons Un profil technique pour la migration d'environnements Cloudera vers Teradata Environnements Cloudera vers Teradata pour la Data Factory de Tours. Voici les dĂ©tails spĂ©cifiques : ‱ Migration d'environnements : Cloudera vers Teradata. ‱ CompĂ©tences requises : Python, Spark, systĂšme Linux, et expertise en systĂšmes et applications. ‱ Profils recherchĂ©s : Profils seniors pour la migration de programmes et l'adaptation des traitements, avec une double compĂ©tence Cloudera et Teradata. En raison des exigences du client, nous ne pouvons accepter que les candidatures de freelances travaillant via leur propre entreprise. Si vous ĂȘtes intĂ©ressĂ©, veuillez nous contacter dĂšs que possible avec un CV Ă  jour aux coordonnĂ©es ci-dessous pour plus d'informations.

DĂ©marrage DĂšs que possible
Durée 9 mois
TJM 400-570 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Tours, Centre-Val de Loire
Freelance

Expert Big Data - Technologies Cloudera / Hadoop / Spark / JEE

CAT-AMANIA

Expertise dĂ©veloppement / outillage / intĂ©gration sur des technologies Open Source en environnement Big Data Hadoop (Cloudera). Connaissance de la solution Talend. MaĂźtrise des solutions de conteneurisation (openshift). CapacitĂ© Ă  assurer l'Ă©volution des socle Data et leur enrichissement en fonction de la roadmap stratĂ©gique dĂ©finie. – Aide au diagnostic et Ă  la rĂ©solution de problĂšmes – Analyse et rĂ©alisation d’outils d’aide au dĂ©veloppement et Ă  l'exploitation - Maintenance et Ă©volution des solutions ETL Light (Socle GĂ©nĂ©rique) et de l'offre Micro-Services Les compĂ©tences techniques requises : - ExpĂ©rience significative(> 5 ans) sur les technologies de la Data - Expertise sur les technologies et API Java / JEE

DĂ©marrage DĂšs que possible
Durée 3 ans
TJM 520-580 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Le Mans, Pays de la Loire
CDI
Freelance

Ingénieur DevOps Big Data

Deodis

Dans le cadre de l’exploitation et de l’optimisation de l'infrastructure Cloudera & Data de notre client, nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la rĂ©solution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maĂźtriser les architectures Cloudera, possĂ©der une expertise avancĂ©e en dĂ©veloppement Shell, Ansible et Python, et ĂȘtre capable d’intervenir sur les problĂ©matiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de donnĂ©es en temps rĂ©el. Des connaissances en sur la plateforme Dataiku seraient un plus. Missions : Support Technique N2 & N3 Analyser, diagnostiquer et rĂ©soudre les incidents complexes impactant la plateforme Cloudera. Assurer un support de niveau 2 et 3 pour les Ă©quipes techniques et mĂ©tiers. GĂ©rer les escalades des incidents critiques et collaborer avec l’éditeur si nĂ©cessaire. ImplĂ©menter et amĂ©liorer les outils de monitoring avancĂ©s pour dĂ©tecter et anticiper les problĂšmes. Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka Administrer et optimiser l’infrastructure Kafka sur Cloudera. GĂ©rer la scalabilitĂ© et la rĂ©silience des clusters Kafka. Assurer une supervision efficace des topics, brokers et consommateurs. RĂ©soudre les incidents liĂ©s Ă  la latence, au throughput et Ă  la gestion des offsets. Mettre en place des stratĂ©gies de sĂ©curisation et de haute disponibilitĂ© de Kafka. Automatisation et DĂ©veloppement DĂ©velopper et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. Automatiser la gestion des incidents rĂ©currents et les procĂ©dures de maintenance. DĂ©ployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de donnĂ©es associĂ©es. Optimisation et Dimensionnement de l’Infrastructure Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. Analyser et proposer des Ă©volutions d’architecture en collaboration avec les architectes en fonction des besoins mĂ©tier. Assurer une veille technologique et ĂȘtre force de proposition pour amĂ©liorer la plateforme Documentation et Transmission de Connaissances Documenter les incidents rĂ©currents, les procĂ©dures de rĂ©solution, les bonnes pratiques et le manuel d’utilisation de l’offre. Former les Ă©quipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. RĂ©diger des guides de troubleshooting pour faciliter le travail des Ă©quipes de support niveau 1 et 2.

DĂ©marrage DĂšs que possible
Durée 6 mois
Salaire 62k-67k â‚Źâ„an
TJM 530-610 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Bordeaux, Nouvelle-Aquitaine
Freelance

ARCHITECTE SOLUTION DATA PLATFORM

Nicholson SAS

Industrie: DEFENSE Lieu : Rennes, Brest ou Lorient (1 jour de tĂ©lĂ©travail par semaine) DĂ©marrage : 01/03/2025 DurĂ©e : 6 mois Langue : Français ExpĂ©rience requise : 10 ans ou plus Contexte de la mission Dans le cadre du dĂ©veloppement de sa Data Platform , notre client recherche un Architecte Solution en soutien de l’architecte solution en poste. La mission consiste Ă  intervenir dans les phases de cadrage et de dĂ©ploiement de la plateforme, en collaboration avec une Ă©quipe projet rassemblant les expertises Infrastructure, DĂ©veloppement, Architecture et CybersĂ©curitĂ© . Missions principales1. Conception et modĂ©lisation de l’architecture de la Data Platform Concevoir et documenter les architectures fonctionnelles et techniques de la plateforme. ModĂ©liser les flux de donnĂ©es et interactions entre les composants Cloudera (NiFi, HDFS, Ozone, Impala, Kafka, Hive...). Formaliser des schĂ©mas clairs et dĂ©taillĂ©s (conceptuel, logique, physique) adaptĂ©s aux audiences techniques et mĂ©tiers. IntĂ©grer les principes d’ urbanisation des donnĂ©es et d’ architecture d’entreprise . 2. Production et maintien de la documentation d’architecture RĂ©diger et maintenir les Documents d’Architecture GĂ©nĂ©rale (DAG) et leurs annexes. Documenter les choix techniques, schĂ©mas d’architecture et bonnes pratiques . Assurer la cohĂ©rence et la comprĂ©hension des documents auprĂšs des Ă©quipes internes et partenaires. Aligner la documentation avec les 4 DAG services : Data Processing Data Gouvernance Data Valorisation Data Virtualization 3. IntĂ©gration des considĂ©rations liĂ©es Ă  l’IA GĂ©nĂ©rative Étudier et intĂ©grer les enjeux spĂ©cifiques de l’ IA GĂ©nĂ©rative dans l’architecture. Adapter les infrastructures pour optimiser l’exploitation des modĂšles d’IA et d’apprentissage automatique . 4. Accompagnement des Ă©quipes dans la mise en Ɠuvre de l’architecture Collaborer avec les Ă©quipes techniques (Data Engineers, DevOps, CybersĂ©curitĂ©) pour assurer la mise en Ɠuvre des architectures dĂ©finies. Assister les Ă©quipes mĂ©tiers pour traduire leurs besoins en solutions techniques . Animer des ateliers de travail et revues d’architecture pour garantir l’alignement des parties prenantes. Soutenir l’équipe Valorisation des donnĂ©es sur les aspects techniques de l’exploitation.

DĂ©marrage DĂšs que possible
Durée 6 mois
TJM 100-600 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Bretagne, France
Freelance
CDI

INGÉNIERIE EXPERTISÉE HADOOP (CLOUDERA CDP)/ ANSIBLE

Digistrat consulting

Contexte et objectifs de la prestation Le service rĂ©alise le dĂ©veloppement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilitĂ© des prĂ©sentations mises en Ɠuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Le BĂ©nĂ©ficiaire souhaite amĂ©liorer la qualitĂ© de la gestion de ses systĂšmes informatiques. A ce titre, le BĂ©nĂ©ficiaire souhaite bĂ©nĂ©ficier de l'expertise du Prestataire en termes d’ Architecture technique. Dans ce cadre, la Prestation consiste Ă  contribuer Ă /au(x) : - L’automatisation basĂ©e sur Cloudera CDP 7.1 Ă  base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bĂ©nĂ©ficiaires - Livraisons des projets qui apportent de la valeur Ă  nos bĂ©nĂ©ficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants

DĂ©marrage DĂšs que possible
Durée 3 ans
Salaire 40k-60k â‚Źâ„an
TJM 450-600 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI
CDD

DevOps-DataOps

bdevit

Contexte : Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la rĂ©solution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maĂźtriser les architectures Cloudera, possĂ©der une expertise avancĂ©e en dĂ©veloppement Shell, Ansible et Python, et ĂȘtre capable d’intervenir sur les problĂ©matiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de donnĂ©es en temps rĂ©el. Des connaissances en Elasticsearch, MongoDB ainsi qu’une expĂ©rience sur la plateforme Dataiku seraient un plus. Missions Principales : Support Technique Niveau 2 et 3 sur Cloudera Data Platform - Analyser, diagnostiquer et rĂ©soudre les incidents complexes impactant la plateforme Cloudera ; - Assurer un support de niveau 2 et 3 pour les Ă©quipes techniques et mĂ©tiers ; - GĂ©rer les escalades des incidents critiques et collaborer avec l’éditeur si nĂ©cessaire ; - ImplĂ©menter et AmĂ©liorer les outils de monitoring avancĂ©s pour dĂ©tecter et anticiper les problĂšmes ; - Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka - Administrer et Optimiser l’infrastructure Kafka sur Cloudera ; - GĂ©rer la scalabilitĂ© et la rĂ©silience des clusters Kafka ;Assurer une supervision efficace des topics, brokers et consommateurs ; - RĂ©soudre les incidents liĂ©s Ă  la latence, au throughput et Ă  la gestion des offsets ; - Mettre en place des stratĂ©gies de sĂ©curisation et de haute disponibilitĂ© de Kafka. Automatisation et DĂ©veloppement - DĂ©velopper et Maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation ; - Automatiser la gestion des incidents rĂ©currents et les procĂ©dures de maintenance ; - DĂ©ployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de donnĂ©es associĂ©es. Optimisation et Dimensionnement de l’Infrastructure - Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail ; - Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources ; - Analyser et Proposer des Ă©volutions d’architecture en collaboration avec les architectes en fonction des besoins mĂ©tier ; - Assurer une veille technologique et ĂȘtre force de proposition pour amĂ©liorer la plateforme. Documentation et Transmission de Connaissances - Documenter les incidents rĂ©currents, les procĂ©dures de rĂ©solution, les bonnes pratiques et le manuel d’utilisation de l’offre ; - Former les Ă©quipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents ; - RĂ©diger des guides de troubleshooting pour faciliter le travail des Ă©quipes de support niveau 1 et 2.

DĂ©marrage DĂšs que possible
Durée 36 mois
Salaire 40k-45k â‚Źâ„an
TJM 500-520 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Bordeaux, Nouvelle-Aquitaine
Freelance
CDI

Consultant MĂ©tier / Business Analyst

Sapiens Group

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rĂ©daction des spĂ©cifications fonctionnelles et techniques. Gestion du backlog : RĂ©daction des User Stories, critĂšres d'acceptation (DoR, DoD), suivi du dĂ©veloppement et validation des livrables. Pilotage et suivi : Coordination entre les Ă©quipes mĂ©tier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de donnĂ©es, requĂȘtage SQL, gestion des bases de donnĂ©es relationnelles et non relationnelles. AmĂ©lioration continue : Proposition de solutions innovantes, amĂ©lioration des performances et garantie de la qualitĂ© des livrables.

DĂ©marrage DĂšs que possible
Durée 10 mois
Salaire 40k-70k â‚Źâ„an
TJM 420-620 â‚Źâ„j
Lieu Paris, France
CDI
Freelance

Business analyst DATA

AVA2I

Spécialisé dans le secteur bancaire, l'entreprise recherche deux Business Analysts orientés Data pour renforcer son équipe. Les candidats idéaux auront une solide expérience en bases de données SQL et seront capables de travailler avec divers outils et technologies de traitement de données. Compétences requises : Bases de données SQL : Maßtrise obligatoire. Datalake Cloudera : Connaissance souhaitée. HDFS (stockage) : Connaissance souhaitée. Framework et traitement de données : Apache Spark Indexima pour l'indexation de données Profil recherché : Formation scientifique ou technique (ingénierie, informatique, mathématiques, etc.) pour une montée en compétence rapide. Capacité à démarrer dÚs que possible (ASAP). Anglais professionnel : Travail principalement en français avec quelques échanges en anglais.

DĂ©marrage DĂšs que possible
Durée 3 ans
Salaire 40k-55k â‚Źâ„an
TJM 400-510 â‚Źâ„j
Lieu Maisons-Alfort, Île-de-France
Freelance
CDI

Consultant MOA Data H/F

STORM GROUP

Contexte : Nous recherchons un consultant MOA Data pour un client final dans le domaine de la banque. Missions : Dans le cadre de diffĂ©rents projets dont le cadrage est Ă  venir et oĂč l'Ă©quipe est en mise en Ɠuvre (PassAlm, DW OpĂ©rations, OTARIE) BA technique sur les sujets DATA : Connaissance de la mĂ©thodologie agile CapacitĂ© Ă  transformer des besoins en solution (animation atelier, rĂ©daction US, DOR, DONE, plan de test) Gestion du backlog produit et coordination avec les dev sur dĂ©finir la solution Connaissance technique des environnements Data (Ă©cosystĂšme cloudera, GCP ou web) La connaissance d'un langage serait un plus (python par exemple) La connaissance des Bdd relationnelles ou non est indispensable ainsi que le requĂȘtage Bdd (oracle et big Query)

DĂ©marrage DĂšs que possible
Durée 3 ans
Salaire 50k-55k â‚Źâ„an
TJM 500-520 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Île-de-France, France
CDI
Freelance

DATA Engineer

AVA2I

Spécialisé dans le secteur bancaire, l'entreprise recherche un Data Engineer talentueux et motivé pour rejoindre son équipe de données. Le candidat idéal aura une solide expérience en ingénierie des données et sera capable de concevoir, développer et maintenir des solutions de données robustes et évolutives. Missions principales : Concevoir et développer des pipelines de données pour l'ingestion, le traitement et le stockage des données. Assurer la qualité, la sécurité et l'intégrité des données. Collaborer avec les équipes de data scientists, d'analystes et d'autres parties prenantes pour comprendre les besoins en données et fournir des solutions adaptées. Optimiser les performances des systÚmes de données et résoudre les problÚmes techniques. Participer à la mise en place et à la gestion des infrastructures de données (Datalake, HDFS, etc.).

DĂ©marrage DĂšs que possible
Durée 3 ans
Salaire 40k-57k â‚Źâ„an
TJM 400-500 â‚Źâ„j
Télétravail Télétravail partiel
Lieu Maisons-Alfort, Île-de-France
Freelance

Business Analyst Technique DATA – Expertise SQL, Cloud & Agile

CAT-AMANIA

Dans le cadre de plusieurs projets liĂ©s Ă  la gestion et Ă  l’exploitation des donnĂ©es, nous recherchons un Business Analyst Technique spĂ©cialisĂ© en DATA . Vous interviendrez sur des sujets variĂ©s nĂ©cessitant une bonne comprĂ©hension des environnements techniques et des besoins mĂ©tier . Vos missions Analyser et formaliser les besoins en data en lien avec les Ă©quipes mĂ©tier et techniques. RĂ©diger des user stories , dĂ©finir les DoR / DoD et structurer le backlog produit . Coordonner avec les Ă©quipes de dĂ©veloppement pour s’assurer de la pertinence des solutions mises en place. Effectuer des requĂȘtes SQL sur Oracle et BigQuery pour extraire et manipuler les donnĂ©es. Contribuer aux tests et Ă  la validation des solutions livrĂ©es. Travailler dans un cadre Agile en interaction avec les diffĂ©rentes parties prenantes.

DĂ©marrage DĂšs que possible
Durée 1 an
TJM 400-520 â‚Źâ„j
Télétravail Télétravail 100%
Lieu Île-de-France, France
CDI
Freelance

Expert Big Data

GROUPE ALLIANCE

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE 
 Ce que tu recherches : · Evoluer au sein d’une Ă©quipe dynamique · Participer Ă  des projets innovants d’envergure · Relever des dĂ©fis · Donner un nouveau souffle Ă  ta carriĂšre Alors nous avons la mission idĂ©ale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des Ă©volutions majeures Ă  mettre en Ɠuvre dans le SI du client : · Analyse des besoins, tu feras · SpĂ©cifications techniques, tu rĂ©digeras · L’architecture et/ou socle technique, tu dĂ©finiras · Bonnes pratiques, tu instaureras · De nouvelles fonctionnalitĂ©s, tu dĂ©velopperas · ZĂ©ro bug, tu laisseras · Ton Ă©quipe, tu accompagneras · Aux instances de pilotage, tu participeras

DĂ©marrage DĂšs que possible
Durée 36 mois
Salaire 54k-63k â‚Źâ„an
TJM 530-630 â‚Źâ„j
Lieu Niort, Nouvelle-Aquitaine
Offre premium
Freelance
CDI

Admin Production (HDP CDP KUBERNETES)

OBJECTWARE MANAGEMENT GROUP

Le bĂ©nĂ©ficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au dĂ©veloppement d'un ensemble des DATA Services et challenge des fonctionnalitĂ©s Ă  dĂ©velopper et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et Ă  l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des diffĂ©rents composants sur Hadoop · Au support et Ă  la rĂ©solution des problĂšmes N2 et N3 · A la mise en place d’environnements de dĂ©veloppement et de test · A la sĂ©curisation des clusters

DĂ©marrage DĂšs que possible
Durée 3 ans
Salaire 40k-60k â‚Źâ„an
TJM 400-600 â‚Źâ„j
Lieu Île-de-France, France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous