Le poste Expert Hadoop Infra Ops
Partager cette offre
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) - Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d'un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d'une plateforme, notre client recherche un Expert Hadoop pour l'installation d'une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l'équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Profil recherché
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) - Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d'un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d'une plateforme, notre client recherche un Expert Hadoop pour l'installation d'une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l'équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Environnement de travail
Expérience requise : 7 ans minimum
Lieu de mission : Paris, métro Bourse (2 jours de télétravail) - Déplacements possibles sur site à Noisiel
Date de démarrage souhaitée : Janvier 2025
Durée de la mission : 1 an, reconductible deux fois par période d'un an (651 jours)
Entretien : Prévu en présentiel
Le Service de SUPport TEChnique (SUPTEC) fait partie de la Direction de l’Informatique et des Télécommunications (DIT). Sa mission principale est d’assurer le fonctionnement d’un système d’information fiable et performant, de la validation des dossiers d’architecture à la mise en production et l’exploitation des applications. SUPTEC veille également à la cohérence et au respect des normes, procédures et outils utilisés par les lignes de production MVS, Windows et Unix pour l’intégration des applications.
La section Intégrations accompagne les projets sur la partie packaging et automatisation des déploiements des livrables applicatifs, principalement à l’aide des outils Puppet et XLDeploy.
Dans le cadre de la migration d'une plateforme, notre client recherche un Expert Hadoop pour l'installation d'une nouvelle version de Hadoop.
Maintenir en conditions opérationnelles les environnements en collaboration avec les équipes N3.
Traiter les incidents d’exploitation sur tous les environnements (production, intégration et qualification) : analyse, diagnostic (identification de la cause racine) et mise en œuvre de solutions.
Assister les clients de la dataplatform dans l’optimisation de leurs traitements/requêtes.
Effectuer des astreintes 2 nuits par mois, réparties au sein de l'équipe support.
Automatiser l’infrastructure BigData et les actions récurrentes via Ansible.
Implémenter les recommandations des équipes N3/Cloudera.
Participer aux déploiements de clusters.
Produire de la documentation sous Confluence, Git et Jira, en détaillant les résolutions d’incidents.
Participer aux rituels SCRUM (System Demo, lancement de sprint, PI planning, rétrospective) avec les équipes de la Dataplatform.
Bonne connaissance de RHEL 8 ou supérieur.
Connaissance de PostgreSQL.
Connaissance d’AUTOSYS 11 ou supérieur.
Connaissance d’Ansible Tower/AWX.
Connaissance d’Openshift.
Compétences en scripting Shell.
Maîtrise du langage Ansible 2.9 ou supérieur.
Bonne connaissance de Hadoop (CDP 7.1).
Connaissance d’OpenSearch/Elastic Search.
Connaissance de Git.
Expertise en Infra Ops.
Connaissance des principes du Datalake.
Disponibilité pour des astreintes (2 par mois)
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Expert Hadoop Infra Ops
Freelance.com