Le poste Architecte Hadoop H/F
Partager cette offre
Afin de renforcer ses équipes, notre client recherche un(e) architecte sur un environnement Hadoop / Big data de technologie Cloudera ; Et avec des compétences en développement autour des langages propres au domaine BigData, tels que Python, Spark, Hive, impala.
Descriptif de la mission :
Les missions sont :
Ø Les missions porteront sur :
o Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels.
Ø Evolution des architectures techniques :
o Mise en place des principes directeurs sur l’utilisation du cluster Cloudera
o Vérification de la bonne application des normes et des standards
o Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster
o Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ;
Ø Expertise Hadoop de niveau 3
o Configuration du cluster Cloudera en fonction des besoins identifiés
o Optimisation des traitements ;
Ø Support :
o Accompagnement des équipes de développement
o Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données
o Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances
Ø Savoir être :
o Coordination et pilotage des chantiers en collaboration avec les différents services DSI
o Autonomie pour la prise en charge des sujets et travail en équipe
o Capacité à communiquer et s'adapter en fonction des différents interlocuteurs
Profil recherché
Ø Vous êtes diplômé(e) d'une école d’ingénieur ou d’un master dans le domaine informatique
Ø Vous avez un minimum de 4 ans d’expérience en tant qu'architecte Hadoop
Ø Vous maîtrisez l'environnement technique suivant : la distribution Hadoop Cloudera CDP (version 7.1.*), incluant des composants tels que HDFS, YARN, Cloudera Manager, Hive, Hue, Impala, Spark, Zeppelin, Ranger, Knox et Zookeeper.
Ø Vous avez des compétences en Shell, Python et Spark.
Ø Enfin, vous êtes également familier(e) avec les moteurs de requêtage, notamment Hive, Impala et SQL.
Environnement de travail
Mission en régie via AMD Blue Data
Secteur d’activité : Assurance
Lieu : Paris
Télétravail : partiel
Durée : 2 ans renouvelable
Démarrage possible : 01/01/2025
Postulez à cette offre !
Trouvez votre prochain job parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Architecte Hadoop H/F
AMD Blue