Trouvez votre prochaine offre dâemploi ou de mission freelance Cloudera
Astuce
Utilisez des virgules pour rechercher plusieurs termes en mĂȘme temps.
Exemple : sql, php correspond Ă sql OU php
Cloudera / Teradata
Hanson Regan recherche un Cloudera / Teradata pour une mission de 9 mois renouvelable basĂ©e Ă Tour (2 jours sur site 3 jours Ă distance). nous recherchons Un profil technique pour la migration d'environnements Cloudera vers Teradata Environnements Cloudera vers Teradata pour la Data Factory de Tours. Voici les dĂ©tails spĂ©cifiques : âą Migration d'environnements : Cloudera vers Teradata. âą CompĂ©tences requises : Python, Spark, systĂšme Linux, et expertise en systĂšmes et applications. âą Profils recherchĂ©s : Profils seniors pour la migration de programmes et l'adaptation des traitements, avec une double compĂ©tence Cloudera et Teradata. En raison des exigences du client, nous ne pouvons accepter que les candidatures de freelances travaillant via leur propre entreprise. Si vous ĂȘtes intĂ©ressĂ©, veuillez nous contacter dĂšs que possible avec un CV Ă jour aux coordonnĂ©es ci-dessous pour plus d'informations.
Expert Big Data - Technologies Cloudera / Hadoop / Spark / JEE

Expertise dĂ©veloppement / outillage / intĂ©gration sur des technologies Open Source en environnement Big Data Hadoop (Cloudera). Connaissance de la solution Talend. MaĂźtrise des solutions de conteneurisation (openshift). CapacitĂ© Ă assurer l'Ă©volution des socle Data et leur enrichissement en fonction de la roadmap stratĂ©gique dĂ©finie. â Aide au diagnostic et Ă la rĂ©solution de problĂšmes â Analyse et rĂ©alisation dâoutils dâaide au dĂ©veloppement et Ă l'exploitation - Maintenance et Ă©volution des solutions ETL Light (Socle GĂ©nĂ©rique) et de l'offre Micro-Services Les compĂ©tences techniques requises : - ExpĂ©rience significative(> 5 ans) sur les technologies de la Data - Expertise sur les technologies et API Java / JEE
Ingénieur DevOps Big Data

Dans le cadre de lâexploitation et de lâoptimisation de l'infrastructure Cloudera & Data de notre client, nous recherchons un prestataire expert capable dâassurer le support technique, lâanalyse et la rĂ©solution des incidents critiques ainsi que lâoptimisation continue de la plateforme. Le prestataire devra maĂźtriser les architectures Cloudera, possĂ©der une expertise avancĂ©e en dĂ©veloppement Shell, Ansible et Python, et ĂȘtre capable dâintervenir sur les problĂ©matiques de dimensionnement et de tuning de lâinfrastructure. Une connaissance de Kafka est requise pour la gestion des flux de donnĂ©es en temps rĂ©el. Des connaissances en sur la plateforme Dataiku seraient un plus. Missions : Support Technique N2 & N3 Analyser, diagnostiquer et rĂ©soudre les incidents complexes impactant la plateforme Cloudera. Assurer un support de niveau 2 et 3 pour les Ă©quipes techniques et mĂ©tiers. GĂ©rer les escalades des incidents critiques et collaborer avec lâĂ©diteur si nĂ©cessaire. ImplĂ©menter et amĂ©liorer les outils de monitoring avancĂ©s pour dĂ©tecter et anticiper les problĂšmes. Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka Administrer et optimiser lâinfrastructure Kafka sur Cloudera. GĂ©rer la scalabilitĂ© et la rĂ©silience des clusters Kafka. Assurer une supervision efficace des topics, brokers et consommateurs. RĂ©soudre les incidents liĂ©s Ă la latence, au throughput et Ă la gestion des offsets. Mettre en place des stratĂ©gies de sĂ©curisation et de haute disponibilitĂ© de Kafka. Automatisation et DĂ©veloppement DĂ©velopper et maintenir des scripts Shell, Ansible et Python pour automatiser le support et lâexploitation. Automatiser la gestion des incidents rĂ©currents et les procĂ©dures de maintenance. DĂ©ployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de donnĂ©es associĂ©es. Optimisation et Dimensionnement de lâInfrastructure Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. Analyser et proposer des Ă©volutions dâarchitecture en collaboration avec les architectes en fonction des besoins mĂ©tier. Assurer une veille technologique et ĂȘtre force de proposition pour amĂ©liorer la plateforme Documentation et Transmission de Connaissances Documenter les incidents rĂ©currents, les procĂ©dures de rĂ©solution, les bonnes pratiques et le manuel dâutilisation de lâoffre. Former les Ă©quipes internes sur les outils de monitoring, Kafka, Cloudera et lâanalyse des incidents. RĂ©diger des guides de troubleshooting pour faciliter le travail des Ă©quipes de support niveau 1 et 2.
ARCHITECTE SOLUTION DATA PLATFORM

Industrie: DEFENSE Lieu : Rennes, Brest ou Lorient (1 jour de tĂ©lĂ©travail par semaine) DĂ©marrage : 01/03/2025 DurĂ©e : 6 mois Langue : Français ExpĂ©rience requise : 10 ans ou plus Contexte de la mission Dans le cadre du dĂ©veloppement de sa Data Platform , notre client recherche un Architecte Solution en soutien de lâarchitecte solution en poste. La mission consiste Ă intervenir dans les phases de cadrage et de dĂ©ploiement de la plateforme, en collaboration avec une Ă©quipe projet rassemblant les expertises Infrastructure, DĂ©veloppement, Architecture et CybersĂ©curitĂ© . Missions principales1. Conception et modĂ©lisation de lâarchitecture de la Data Platform Concevoir et documenter les architectures fonctionnelles et techniques de la plateforme. ModĂ©liser les flux de donnĂ©es et interactions entre les composants Cloudera (NiFi, HDFS, Ozone, Impala, Kafka, Hive...). Formaliser des schĂ©mas clairs et dĂ©taillĂ©s (conceptuel, logique, physique) adaptĂ©s aux audiences techniques et mĂ©tiers. IntĂ©grer les principes dâ urbanisation des donnĂ©es et dâ architecture dâentreprise . 2. Production et maintien de la documentation dâarchitecture RĂ©diger et maintenir les Documents dâArchitecture GĂ©nĂ©rale (DAG) et leurs annexes. Documenter les choix techniques, schĂ©mas dâarchitecture et bonnes pratiques . Assurer la cohĂ©rence et la comprĂ©hension des documents auprĂšs des Ă©quipes internes et partenaires. Aligner la documentation avec les 4 DAG services : Data Processing Data Gouvernance Data Valorisation Data Virtualization 3. IntĂ©gration des considĂ©rations liĂ©es Ă lâIA GĂ©nĂ©rative Ătudier et intĂ©grer les enjeux spĂ©cifiques de lâ IA GĂ©nĂ©rative dans lâarchitecture. Adapter les infrastructures pour optimiser lâexploitation des modĂšles dâIA et dâapprentissage automatique . 4. Accompagnement des Ă©quipes dans la mise en Ćuvre de lâarchitecture Collaborer avec les Ă©quipes techniques (Data Engineers, DevOps, CybersĂ©curitĂ©) pour assurer la mise en Ćuvre des architectures dĂ©finies. Assister les Ă©quipes mĂ©tiers pour traduire leurs besoins en solutions techniques . Animer des ateliers de travail et revues dâarchitecture pour garantir lâalignement des parties prenantes. Soutenir lâĂ©quipe Valorisation des donnĂ©es sur les aspects techniques de lâexploitation.
INGĂNIERIE EXPERTISĂE HADOOP (CLOUDERA CDP)/ ANSIBLE

Contexte et objectifs de la prestation Le service rĂ©alise le dĂ©veloppement de l'ensemble des services BIGDATA , et garantit : - LâexploitabilitĂ© des prĂ©sentations mises en Ćuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Le BĂ©nĂ©ficiaire souhaite amĂ©liorer la qualitĂ© de la gestion de ses systĂšmes informatiques. A ce titre, le BĂ©nĂ©ficiaire souhaite bĂ©nĂ©ficier de l'expertise du Prestataire en termes dâ Architecture technique. Dans ce cadre, la Prestation consiste Ă contribuer Ă /au(x) : - Lâautomatisation basĂ©e sur Cloudera CDP 7.1 Ă base dâAnsible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bĂ©nĂ©ficiaires - Livraisons des projets qui apportent de la valeur Ă nos bĂ©nĂ©ficiaires - Lâautomatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants
DevOps-DataOps

Contexte : Dans le cadre de lâexploitation et de lâoptimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable dâassurer le support technique, lâanalyse et la rĂ©solution des incidents critiques ainsi que lâoptimisation continue de la plateforme. Le prestataire devra maĂźtriser les architectures Cloudera, possĂ©der une expertise avancĂ©e en dĂ©veloppement Shell, Ansible et Python, et ĂȘtre capable dâintervenir sur les problĂ©matiques de dimensionnement et de tuning de lâinfrastructure. Une connaissance de Kafka est requise pour la gestion des flux de donnĂ©es en temps rĂ©el. Des connaissances en Elasticsearch, MongoDB ainsi quâune expĂ©rience sur la plateforme Dataiku seraient un plus. Missions Principales : Support Technique Niveau 2 et 3 sur Cloudera Data Platform - Analyser, diagnostiquer et rĂ©soudre les incidents complexes impactant la plateforme Cloudera ; - Assurer un support de niveau 2 et 3 pour les Ă©quipes techniques et mĂ©tiers ; - GĂ©rer les escalades des incidents critiques et collaborer avec lâĂ©diteur si nĂ©cessaire ; - ImplĂ©menter et AmĂ©liorer les outils de monitoring avancĂ©s pour dĂ©tecter et anticiper les problĂšmes ; - Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka - Administrer et Optimiser lâinfrastructure Kafka sur Cloudera ; - GĂ©rer la scalabilitĂ© et la rĂ©silience des clusters Kafka ;Assurer une supervision efficace des topics, brokers et consommateurs ; - RĂ©soudre les incidents liĂ©s Ă la latence, au throughput et Ă la gestion des offsets ; - Mettre en place des stratĂ©gies de sĂ©curisation et de haute disponibilitĂ© de Kafka. Automatisation et DĂ©veloppement - DĂ©velopper et Maintenir des scripts Shell, Ansible et Python pour automatiser le support et lâexploitation ; - Automatiser la gestion des incidents rĂ©currents et les procĂ©dures de maintenance ; - DĂ©ployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de donnĂ©es associĂ©es. Optimisation et Dimensionnement de lâInfrastructure - Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail ; - Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources ; - Analyser et Proposer des Ă©volutions dâarchitecture en collaboration avec les architectes en fonction des besoins mĂ©tier ; - Assurer une veille technologique et ĂȘtre force de proposition pour amĂ©liorer la plateforme. Documentation et Transmission de Connaissances - Documenter les incidents rĂ©currents, les procĂ©dures de rĂ©solution, les bonnes pratiques et le manuel dâutilisation de lâoffre ; - Former les Ă©quipes internes sur les outils de monitoring, Kafka, Cloudera et lâanalyse des incidents ; - RĂ©diger des guides de troubleshooting pour faciliter le travail des Ă©quipes de support niveau 1 et 2.
Consultant MĂ©tier / Business Analyst

Missions principales Cadrage et analyse : Animation dâateliers, collecte des besoins, rĂ©daction des spĂ©cifications fonctionnelles et techniques. Gestion du backlog : RĂ©daction des User Stories, critĂšres d'acceptation (DoR, DoD), suivi du dĂ©veloppement et validation des livrables. Pilotage et suivi : Coordination entre les Ă©quipes mĂ©tier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de donnĂ©es, requĂȘtage SQL, gestion des bases de donnĂ©es relationnelles et non relationnelles. AmĂ©lioration continue : Proposition de solutions innovantes, amĂ©lioration des performances et garantie de la qualitĂ© des livrables.
Business analyst DATA

Spécialisé dans le secteur bancaire, l'entreprise recherche deux Business Analysts orientés Data pour renforcer son équipe. Les candidats idéaux auront une solide expérience en bases de données SQL et seront capables de travailler avec divers outils et technologies de traitement de données. Compétences requises : Bases de données SQL : Maßtrise obligatoire. Datalake Cloudera : Connaissance souhaitée. HDFS (stockage) : Connaissance souhaitée. Framework et traitement de données : Apache Spark Indexima pour l'indexation de données Profil recherché : Formation scientifique ou technique (ingénierie, informatique, mathématiques, etc.) pour une montée en compétence rapide. Capacité à démarrer dÚs que possible (ASAP). Anglais professionnel : Travail principalement en français avec quelques échanges en anglais.
Consultant MOA Data H/F

Contexte : Nous recherchons un consultant MOA Data pour un client final dans le domaine de la banque. Missions : Dans le cadre de diffĂ©rents projets dont le cadrage est Ă venir et oĂč l'Ă©quipe est en mise en Ćuvre (PassAlm, DW OpĂ©rations, OTARIE) BA technique sur les sujets DATA : Connaissance de la mĂ©thodologie agile CapacitĂ© Ă transformer des besoins en solution (animation atelier, rĂ©daction US, DOR, DONE, plan de test) Gestion du backlog produit et coordination avec les dev sur dĂ©finir la solution Connaissance technique des environnements Data (Ă©cosystĂšme cloudera, GCP ou web) La connaissance d'un langage serait un plus (python par exemple) La connaissance des Bdd relationnelles ou non est indispensable ainsi que le requĂȘtage Bdd (oracle et big Query)
DATA Engineer

Spécialisé dans le secteur bancaire, l'entreprise recherche un Data Engineer talentueux et motivé pour rejoindre son équipe de données. Le candidat idéal aura une solide expérience en ingénierie des données et sera capable de concevoir, développer et maintenir des solutions de données robustes et évolutives. Missions principales : Concevoir et développer des pipelines de données pour l'ingestion, le traitement et le stockage des données. Assurer la qualité, la sécurité et l'intégrité des données. Collaborer avec les équipes de data scientists, d'analystes et d'autres parties prenantes pour comprendre les besoins en données et fournir des solutions adaptées. Optimiser les performances des systÚmes de données et résoudre les problÚmes techniques. Participer à la mise en place et à la gestion des infrastructures de données (Datalake, HDFS, etc.).
Business Analyst Technique DATA â Expertise SQL, Cloud & Agile

Dans le cadre de plusieurs projets liĂ©s Ă la gestion et Ă lâexploitation des donnĂ©es, nous recherchons un Business Analyst Technique spĂ©cialisĂ© en DATA . Vous interviendrez sur des sujets variĂ©s nĂ©cessitant une bonne comprĂ©hension des environnements techniques et des besoins mĂ©tier . Vos missions Analyser et formaliser les besoins en data en lien avec les Ă©quipes mĂ©tier et techniques. RĂ©diger des user stories , dĂ©finir les DoR / DoD et structurer le backlog produit . Coordonner avec les Ă©quipes de dĂ©veloppement pour sâassurer de la pertinence des solutions mises en place. Effectuer des requĂȘtes SQL sur Oracle et BigQuery pour extraire et manipuler les donnĂ©es. Contribuer aux tests et Ă la validation des solutions livrĂ©es. Travailler dans un cadre Agile en interaction avec les diffĂ©rentes parties prenantes.
Expert Big Data

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE ⊠Ce que tu recherches : · Evoluer au sein dâune Ă©quipe dynamique · Participer Ă des projets innovants dâenvergure · Relever des dĂ©fis · Donner un nouveau souffle Ă ta carriĂšre Alors nous avons la mission idĂ©ale pour toi. Au sein dâacteurs majeurs du secteur Bancaire, tu participeras des projets dâenvergure sur des Ă©volutions majeures Ă mettre en Ćuvre dans le SI du client : · Analyse des besoins, tu feras · SpĂ©cifications techniques, tu rĂ©digeras · Lâarchitecture et/ou socle technique, tu dĂ©finiras · Bonnes pratiques, tu instaureras · De nouvelles fonctionnalitĂ©s, tu dĂ©velopperas · ZĂ©ro bug, tu laisseras · Ton Ă©quipe, tu accompagneras · Aux instances de pilotage, tu participeras
Admin Production (HDP CDP KUBERNETES)

Le bĂ©nĂ©ficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au dĂ©veloppement d'un ensemble des DATA Services et challenge des fonctionnalitĂ©s Ă dĂ©velopper et les standards de travail. Vous contribuerez : · A lâinstallation de cluster · Au monitoring et Ă lâadministration des outils Big Data · A lâadministration de cluster · A lâupgrade des distributions et des composants Hadoop · A lâinstallation des diffĂ©rents composants sur Hadoop · Au support et Ă la rĂ©solution des problĂšmes N2 et N3 · A la mise en place dâenvironnements de dĂ©veloppement et de test · A la sĂ©curisation des clusters
DĂ©posez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critÚres importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthĂšque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.