Trouvez votre prochaine offre d’emploi ou de mission freelance Clustering
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Expert Linux

Contexte : L'équipe Linux est en charge de la gestion du socle technique Linux et des infrastructures Linux dans un contexte Cloud privé. Missions : Assurer le maintien en condition opérationnelle des infrastructures Linux RHEL (support N3, astreintes, évolution de l'infrastructure …) Installer et réaliser le maintien en conditions opérationnelles des environnements cluster Veritas Cluster et GPFS sur Linux Définir les standards Linux, les règles d'ingénierie, les process et outils de Configuration Management Construire les infrastructures de déploiement basées sur Kickstart, Ansible Automatiser les gestes d'exploitation récurrents (via Ansible et/ou scripts shell, Python...) Participer aux optimisations des environnements serveurs opérés Audits de performance Tunning système Hardening / Gestion des vulnérabilités Contribuer à l’évolution des processus de sécurité, notamment la mise à jour régulière des images OS Analyser les résultats des pentests et échanger avec les équipes sécurité pour identifier les remédiations à lancer Nous souhaitons que tous les collaborateurs de l'entité soient force de proposition et soient intégrés dans toutes les réflexions. A ce titre, le collaborateur devra : Participer aux réflexions sur l'évolution de ces infrastructures et définir les impacts sur la production / le support S'inscrire dans une démarche d'amélioration continue et proposer des axes d'améliorations tant sur la partie technique qu'organisationnelle Ce poste vous permettra d'appréhender la production d'un environnement supportant plus de 25000 serveurs Linux et en très forte croissance et constitue une réelle opportunité tant sur le plan technique que sur les perspectives d'évolution (orchestration Cloud, conteneurisation, OS, infrastructures hyperconvergées, baremetal, orientation software defined....)
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
ingenieur Data Databricks
Missions Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe au sein des Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data & Analytics utilisese par l’ensemble des entités Nous recherchons spécifiquement un(e) DevOps pour renforcer notre équipe. Administration, Mise en place de traitement de données. Infra, Admin et exploitation. Construction de data pipeline - Langues : Anglais et Français Rôles et responsabilités En tant que membre de la squad Data and Analytics Platform, vous participerez aux activités suivantes : • Conception de la Data & Analytics Platform • Évolution des infrastructures cloud via l’Infrastructure as Code • Gestion d’un cluster kubernetes • Développement de micro-services en Python et C# • Conception et maintenance de chaînes de déploiement automatisé • Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform • Enrichissement de la documentation à l’attention des utilisateurs
FH - Ingénieur Linux -Bezons /Trélazé

En tant qu’Ingénieur LINUX, vous aurez pour principales missions : Gérer les incidents de niveau 2/3 sur les environnements Linux et assurer leur résolution rapide. Mettre en place et administrer des solutions de clustering (HACMP) afin de garantir la haute disponibilité des systèmes. Automatiser les tâches d’administration courantes grâce à du scripting (Shell, Python, Bash.) pour gagner en efficacité. Rédiger et mettre à jour la documentation d’exploitation (DEX) relative aux procédures et configurations. Assurer l’administration quotidienne des serveurs LINUX, y compris la gestion des certificats et l’application des correctifs (patch management) pour maintenir la sécurité. Build TO Run
FH - Ingénieur AIX

La technologie AIX n’a plus de secrets pour vous ? Vous recherchez un projet de grande envergure avec un impact concret ? Ce poste est fait pour vous ! Nous recrutons un Ingénieur AIX expérimenté pour rejoindre notre équipe sur un projet stratégique à haute visibilité. Description du poste : Gestion des incidents N2/N3 : Support avancé pour résoudre les incidents complexes sur les environnements AIX. Clustering & Haute Disponibilité (HACMP) : Mise en place et administration de solutions de clustering pour assurer la continuité de service. Scripting (Shell, Python, Bash) : Automatisation des tâches récurrentes et optimisation des processus grâce à vos scripts. Documentation (DEX) : Rédaction et mise à jour des documents d’exploitation (DEX) pour partager les connaissances et procédures avec l’équipe. Administration AIX avancée : Gestion des certificats, droits d’accès, sécurisation du système, patch management et maintenance proactive de la plateforme AIX. Distributions Red Hat et CentOS, pour rejoindre notre équipe dynamique et innovante.
FH - Expert / Architecte OpenShift

📢 Opportunité : Expert OpenShift – Paris 13 📢 🔍 Nous recherchons un Expert OpenShift pour intervenir sur un grand environnement de production comprenant 10 clusters et plus de 300 serveurs . 📌 Description du poste : Vous serez en charge de la conception, la mise en œuvre et l’optimisation des plateformes OpenShift dans un environnement de production critique. Vos missions incluront : Concevoir et définir l’architecture OpenShift en fonction des besoins métier. Déployer, administrer et assurer le maintien en condition opérationnelle des clusters OpenShift. Automatiser les tâches liées à la gestion des conteneurs et aux déploiements applicatifs. Optimiser la performance et la sécurité des infrastructures OpenShift/Linux. Travailler en collaboration avec les équipes DevOps et Cloud pour intégrer OpenShift dans l’écosystème existant.
Architecte Linux H/F

DSI Group recherche un(e) Architecte Linux (H/F), pour un de ses clients qui relève du secteur de la défense (91). Vos missions : Rédaction de Dossier d’architecture technique (HLD, LLD). Conception de l'architecture système : Développer et concevoir des architectures de systèmes basées sur Linux qui répondent aux besoins des utilisateurs et des applications. Sécurité : Mettre en place des mesures de sécurité pour protéger les systèmes Linux contre les menaces et les vulnérabilités. Support technique : Fournir un soutien technique aux équipes systèmes et aux utilisateurs finaux en cas de problèmes liés à l'environnement Linux. Automatisation : Développer des scripts et des outils pour automatiser les tâches répétitives et améliorer l'efficacité opérationnelle. Environnements techniques : Linux Redhat Unix Sun Solaris Conteneurisation Openshift Vmware Active Directory clustering cloud AWS.
Ingénieur Production Linux & DevOps
La mission s’inscrit au sein de la DSI dans les équipes de production. Notre client recherche un profil hybride qui pourrait intervenir en tant qu’Ingénieur production Linux et DevOps (Zabbix, Graphana Selenium). Détails des missions prises en charges au sein de l’équipe : Production et exploitation Linux : · Monitorer les applications, traitements. · Gestion des incidents N2, N3 avec les différents intervenants (métiers, fournisseurs) · Contrôler et piloter les traitements applicatifs et Flux · Mettre en production les applications · S’assurer du respect des engagements envers les clients · Mettre à disposition les environnements Dev/Uac/ DevOps : · Contrôler et piloter les cluster AKS et les déploiements · Livraison des applications via Azure Devops · Industrialisation et automatisation des déploiements Terraform · Amélioration du monitoring des sites et scenario de tests sous Zabbix, Graphana Selenium · Le candidat devra respecter les contraintes opérationnelles de l’équipe. Contexte : Le client a depuis plusieurs années réalisé une transformation de ses infrastructures vers des solutions Cloud principalement sur Azure et en SAS chez des éditeurs pour des applications spécifiques. Dans le cadre de ces projets d’évolution, ils ont déployé un cluster AKS afin de procéder au déploiement de containers d’après des images sécuriser et au format du client. Le candidat sera garant du déploiement d’après les bonnes pratiques des images containers et la sécurisation du cluster AKS. Les containers et le système de déploiement devra offrir un monitoring sous Zabbix, Graphana Selenium.
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Release management Intégration technique

Programme de Transformation de la Relation Client qui s’appuie sur une plateforme digitale bâtie autour de la solution Salesforce. La Salesforce Factory, située à Paris, Chartres, Le Mans et Niort, dans le cadre de ses missions de construction/fabrication/releasing, prend en charge des activités transverses autour de la mise en place de Salesforce (Méthode projet/fabrication/releasing, Design Authority, Core fonctionnel et Technique, Run applicatif et support N3 incidents, suivi contractuel SF…..) L'environnement technique : - Ticketing, bugs tracker, outils de qualimétrie et en administration de systèmes Windows et Linux. - configuration de Job Jenkins et avec la gestion de source (GIT) - connaissance GIT requis - architecture (Virtual IP, load Balancing, Clustering, Fail-over), outil de scripting en général (idéalement Python) et XML. - Connaissance COPADO serait un plus La mission est localisée sur le site du Mans (avec des déplacements à Paris à prévoir)
Un consultant en supervision IT (Grafana/prometheus) sur Toulon

Smarteo recherche pour l'un de ses clients, Un consultant en supervision IT (Grafana/prometheus) sur Toulon. Descriptif de la mission: Contexte : Dans le cadre d'un traitement d'obsolescence du système de supervision de plusieurs dessertes réseaux d'un programme majeur, la prestation consiste à développer et documenter la fonction cartographie d'une desserte réseau sous Grafana avec comme référence l'affichage de la solution en place (ServicePilot). La nouvelle fonction de supervision développée sous Grafana devra offrir les fonctionnalit és de supervision similaires à l'ancienne solution de supervision. Localisation : Toulon Durée de la mission : Environ 20 ? 30 jours hommes Date de démarrage : ASAP Intervention sur lot 1 attendue et plus précisément sur Grafana. Descriptifs des lots : Lot 1 : Développement des dashboards de supervision 1) Développement des dashboards de supervision sur la partie Système Réseau : 1.1) Développement dashboard de cartographie de la desserte X intégrant les équipements à superviser 1.2) Développement dashboards spécifiques à chaque équipements : - serveurs HP : iLO - commutateurs - horloges - onduleurs - serveurs NTP 1.3) Développement dashboards spécifiques à chaque services : - AD/DNS - NTP - RADIUS - Veeam 1.4) Développement dashboard Proxmox (VM, Cluster....) 1.5) Développement dashboard de présentation des logs 1.6) Développement dashboards OS (Linux + Windows) 1.7) Développement dasboard XiQ (Appliance Linux) 1.8) Développer les règles d'alerte pour toutes les metrics remontées dans les dashboards 1.9) Navigation : - la navigation doit être réalisée par lien pour chaque équipement et/ou service - les dashboards sont composés de plusieurs niveaux - N1 : cartographie de la desserte X (équipements + services + logs...) - N2 : accès la liste des composants (pour le réseau : liste des équipements réseau) - N3 : dashboard détaillé de l'équipement ou service 2) Configuration de Grafana : 3.1) HTTPS/TLS 3.2) Authentification via AD 3) Développement prometheus : 3.1) Développement des alertes 3.2) Développement des records (permet de réaliser des opérations au sein de prometheus) Lot 2 Intégration & tests des dashboards Intégration et tests des dashboards de supervision + alertes et records Prometheus sur la partie Système Réseau en PF DEV Lot 3 : Documentation Rédaction et livraison d'une note technique d'exploitation des dashboards de supervision Lot 4 : Pilotage Si vous etes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Architect SAP CRM S/4 HANA

Architect SAP CRM S/4 HANA Une expérience avérée d'Architecture tehcnique en environnement SAP e(et en particulier S/4Hana) est recherchée, avec une réelle capacité à challenger et à proposer des stratégies et des analyses d'impacts. Savoir-faire conseil et méthodes : • Capacité de synthèse et de centralisation d’informations multi-sources • Propension à être force de propositions et capacité à les défendre dans un contexte multi-acteurs (Architectes, Intégrateur infrastructure, Intégrateur SAP, Infogérant) • Expertise en architecture des infrastructures et SAP • Capacité à définir et à dimensionner des environnements • avoir une position de "garant de l'intégrateur", pour sécuriser les choix techniques. • Compétences techniques indispensables (plus la couverture est grande, plus l'immersion sera simplifiée dans ce contexte à forts enjeux) • SAP CRM 7, SAP ISU ECC 6, SAP EP, SAP S/4 HANA, SAP BW, SAP GRC, SAP BTP, SAP RISE • Base de données : Oracle, Oracle OEM, SAP HANA • Haute disponibilité : Cluster VMware, Oracle Dataguard, Oracle RAC, RHEL Cluster, SAP HANA system réplication • Mécanisme de sécurité (OKV, KMS, HSM, SAP DATA Custodian, Chiffrement) 650/700 e
Data Analyst (H/F)

Pour notre client, nous recherchons un(e) Data Analyst. Vous transformerez des données complexes en insights stratégiques pour les équipes métiers et les clients. Missions Principales Analyse de données : Nettoyage et traitement de datasets variés Création de dashboards interactifs (Power BI/Tableau) Analyses ad-hoc pour répondre aux besoins métiers Reporting : Automatisation des rapports mensuels Identification des KPI clés Présentation des résultats aux stakeholders Optimisation : Amélioration des processus data Collaboration avec les équipes Data Engineering Veille sur les nouvelles méthodes d'analyse Stack Technique Outils BI : Power BI (70%), Tableau (30%) Langages : SQL avancé, Python (pandas, numpy) Data : Snowflake, BigQuery, Excel avancé Méthodes : Analyse prédictive basique, clustering
Développeur Fullstack - Spatial H/F

Contexte de la mission : Viveris développe une solution pour industrialiser la production d'un tout nouveau produit à destination d'armateurs, de yachts et d'unités ayant besoin de connectivité satellite dans des régions reculées de la planète.La solution pour industrialiser la production de ce produit se découpe en une partie usine et une partie datacenter. Des évolutions en cours sur cette solution sont par exemple de pouvoir installer ce produit sur une nouvelle génération de serveur pour la partie usine ou encore la possibilité de créer des produits sous la forme de cluster. Responsabilités : - Développer de nouvelles fonctionnalités sur la solution ; - Aider au design de la solution technique ; - Participer à la rédaction des User Stories et apporter une expertise technique ; - Collaborer et assister aux cérémonies Agile (reviews, retrospective) ; - Contribuer à la rédaction de la documentation fonctionnelle et technique.
Ingénieur Cloud DevOps 4 à 6 ans d'expérience

Ingénieur Cloud Devops avec une très bonne expérience de terraform, Kubernetes, à l’aise sur AWS comme sur Azure ainsi que d’une expérience sécurité DevSecOps. Réalisations (liste non exhaustive) : • Utilisation de Kops pour le Déploiement de cluster Kubernetes • Administration de Clusters Kubernetes sur AWS et des VM avec Terraform/Terragrunt et Ansible • Gestion de la Production : Slack, PagerDuty, Alertmanager, Blackbox • Mise en place de la collecte de logs avec Vector • Gestion de clusters RabibitMQ et Kafka.pour les équipes de Dev • Monitoring des plateformes : ELK, Vector, Prometheus Grafana • Administration CI, GITLAB, ARGO Workflow • Gestion de Clusters de Bases de Données PostgreSQL/Patroni • Caching : CDN AKAMAI et Varnish
[Poitiers] - DevOps / SRE Senior

Missions : construction des environnements (Terraform) sur le cluster OpenStack déploiement automatisé des outils (Ansible) mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki, Promtail) échanges réguliers avec les équipes qui ont fait le développement Linux, Cloud, Ansible, Grafana, Terraform, Jenkins, Prometheus, GitLab, Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP, Openstack, Loki, Promtail,
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.