Trouvez votre prochaine offre d’emploi ou de mission freelance Clustering
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Un consultant en supervision IT (Grafana/prometheus) sur Toulon

Smarteo recherche pour l'un de ses clients, Un consultant en supervision IT (Grafana/prometheus) sur Toulon. Descriptif de la mission: Contexte : Dans le cadre d'un traitement d'obsolescence du système de supervision de plusieurs dessertes réseaux d'un programme majeur, la prestation consiste à développer et documenter la fonction cartographie d'une desserte réseau sous Grafana avec comme référence l'affichage de la solution en place (ServicePilot). La nouvelle fonction de supervision développée sous Grafana devra offrir les fonctionnalit és de supervision similaires à l'ancienne solution de supervision. Localisation : Toulon Durée de la mission : Environ 20 ? 30 jours hommes Date de démarrage : ASAP Intervention sur lot 1 attendue et plus précisément sur Grafana. Descriptifs des lots : Lot 1 : Développement des dashboards de supervision 1) Développement des dashboards de supervision sur la partie Système Réseau : 1.1) Développement dashboard de cartographie de la desserte X intégrant les équipements à superviser 1.2) Développement dashboards spécifiques à chaque équipements : - serveurs HP : iLO - commutateurs - horloges - onduleurs - serveurs NTP 1.3) Développement dashboards spécifiques à chaque services : - AD/DNS - NTP - RADIUS - Veeam 1.4) Développement dashboard Proxmox (VM, Cluster....) 1.5) Développement dashboard de présentation des logs 1.6) Développement dashboards OS (Linux + Windows) 1.7) Développement dasboard XiQ (Appliance Linux) 1.8) Développer les règles d'alerte pour toutes les metrics remontées dans les dashboards 1.9) Navigation : - la navigation doit être réalisée par lien pour chaque équipement et/ou service - les dashboards sont composés de plusieurs niveaux - N1 : cartographie de la desserte X (équipements + services + logs...) - N2 : accès la liste des composants (pour le réseau : liste des équipements réseau) - N3 : dashboard détaillé de l'équipement ou service 2) Configuration de Grafana : 3.1) HTTPS/TLS 3.2) Authentification via AD 3) Développement prometheus : 3.1) Développement des alertes 3.2) Développement des records (permet de réaliser des opérations au sein de prometheus) Lot 2 Intégration & tests des dashboards Intégration et tests des dashboards de supervision + alertes et records Prometheus sur la partie Système Réseau en PF DEV Lot 3 : Documentation Rédaction et livraison d'une note technique d'exploitation des dashboards de supervision Lot 4 : Pilotage Si vous etes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
DBA Oracle / Postgre SQL - (H/F) - 95

Mon client recherche un DBA Oracle / Postgre SQL pour une mission freelance à Osny (95). 3 mois Démarrage : asap Lieu : Osny + site client dans le monde entier Mission : - Installation, configuration, durcissement de base de données Oracle (majoritairement 19.x, parfois 12.x) ou PostGreSQL (15.X ou 17.x) dans des environnements hautement disponible (cluster), avec réplication sur site secondaire (actif/passif ou actif/actif), partitionnement, encryption, indexation, mise en place de schémas, sauvegarde complète/incrémentale - Mise en place de dashboard pour assurer la supervision de la base de données (Grafana) - Analyse de problèmes de performance en phase de Build (migration de données) et de Run (lenteurs ou souhait d'extension de capacité) - Analyse et résolution de dysfonctionnements en temps contraint / analyse causale - Support à nos clients pour les activités ci-dessus lorsque le client est responsable de l'infrastructure - Missions fréquentes à l'étranger dans des environnements client - Astreintes occasionnelles le week-end lors des mises en production Les livrables sont : - Installation, configuration, durcissement de base de données Oracle et PostGreSQL - Analyse et résolution de problèmes de performance - Développement de modules de supervision
[Poitiers] - DevOps / SRE Senior

Missions : construction des environnements (Terraform) sur le cluster OpenStack déploiement automatisé des outils (Ansible) mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki, Promtail) échanges réguliers avec les équipes qui ont fait le développement Linux, Cloud, Ansible, Grafana, Terraform, Jenkins, Prometheus, GitLab, Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP, Openstack, Loki, Promtail,
Ingenieur Systemes Linux - 5 ans minimum

MISSIONS Par sa connaissance technique, l’ingénieur Systèmes assure le déploiement, les projets d’évolutions et le maintien en condition opérationnelle des infrastructures systèmes en environnement Linux. ACTIVITES PRINCIPALES ▪ Traitement des demandes utilisateurs (25 %) ▪ Maintien en condition opérationnelle des plateformes Linux (55 %) ▪ Mise en œuvre des évolutions de l’infrastructure Linux (30 %) ACTIVITES SPECIFIQUES Dans le cadre de cette mission, des astreintes et permanences sont à prévoir à raison de 1 semaine par mois. Les plages horaires à couvrir seront les suivantes : ▪ Astreinte (1 semaine par mois) : • En semaine : 06 h 30 ➢ 08 h 00 / 20 h 30 ➢ 00 h 30 • Le weekend : 06 h 30 ➢ 00 h 30 ▪ Permanence : • 08 h 00 ➢ 17 h 00 (1 fois par mois) • 12 h 30 ➢ 20 h 30 (1 fois par mois) RELATIONS FONCTIONNELLES ▪ Pôles Support / Réseau et Applications de la DSI ▪ Autres pôles informatiques COMPETENCES REQUISES FORMATION / PRE-REQUIS ▪ BAC + 2 minimum ▪ 5 ans d’expérience minimum SAVOIR-FAIRE ▪ Compétences requises : • Administration des systèmes RHEL et Debian • Cluster de basculement (RH High Availability, Pacemaker) • Gestion de la supervision (Nagios, Cacti) • Services DNS, FTP, HTTP (Apache, Tomcat), SMB, NFS • Scripting (Shell, Perl, Python) • PostgreSQL, MySQL, Oracle • Automatisation (scripting, ansible, openshift, git, conteneur) ▪ Compétences souhaitées : • Hardware (blades HP, stockage NAS/SAN) • VMware • Windows Server (Active Directory, Services DNS, DFS) SAVOIR-ETRE ▪ Bonnes qualités relationnelles ▪ Bonnes qualités rédactionnelles ▪ Méthodologie ▪ Rigueur de travail ▪ Curiosité ▪ Dynamisme
Expert·e Systèmes Linux (CDI)

Dans le cadre de recrutement sur profils ou sur missions et à l'intention de nos clients grands comptes du CAC40, BLUE SOFT Cloud Infrastructure recherche plusieurs profils aussi bien confirmés qu'Architecte sur les systèmes Linux. Vous serez amené·e à réaliser les activités suivantes : - Mettre en oeuvre et supporter les infrastructures de déploiement Linux - Gérer la haute disponibilité - Participer à la standardisation et à l'industrialisation des environnements Linux - Participer aux optimisations des environnements serveurs opérés - Administrer, exploiter et maintenir en conditions opérationnelles les infrastructures - Support N3 et éventuellement des astreintes (suivant mission/client) - Maitriser le scripting en environnement SHELL - Qualifier les évolutions technologiques sur les environnements Linux (changement de versions, patchs) - Automatiser les tâches et processus (scripting, Ansible) - Rédiger les documentations techniques (documents d'architecture ou d'exploitation...) Vous êtes familier des processus ITIL et du respect des engagements dans le cadre de KPI/SLA. Environnement technique : - OS : Linux RHEL - Cluster Veritas, GPFS - Automatisation : Scripting (shell, python), Ansible - Nice to have : RedHat Satellite, Elasticsearch
Data Scientist – (H/F)

Un acteur emblématique du secteur automobile premium recherche un·e Data Scientist pour contribuer à la fiabilisation et à la performance des véhicules de la gamme sportive dans un contexte mêlant modélisation, machine learning et analyse des données d'usage client. La mission s'inscrit au cœur des phases d'amont, de développement, de validation et de certification véhicule. Objectifs de la mission : - Exploiter les données de roulage, d'incidentologie, de connectivité et d'environnement issues des serveurs et du Datalake de l'entreprise. - Entraîner des modèles de machine learning pour extraire des conditions environnementales de roulage (température, fréquence de charge, etc.). - Réduire des modèles de simulation véhicule pour optimiser les temps de calcul, tout en conservant une précision technique élevée. - Réaliser du clustering client afin d'identifier les profils d'usage (urbain, mixte, long trajets…). - Détecter des anomalies pour surveiller les flottes en temps réel et alerter en cas de dysfonctionnements. - Produire des livrables clairs et structurés : notes techniques, synthèses d'usage, cahiers des charges, procédures automatisées d'analyse. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Expert·e Stockage NetApp

Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Ingénieur.e Stockage expert·e de la solution NetApp ! Rattaché·e à la Direction technique de la BU Cloud & Infrastructure (BSCI), vos missions seront les suivantes : - Support & Gestion du Stockage N3 NetApp - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration de propositions - Audit et conseils - Gestion de projets Environnement de stockage en mission : - Baie de Stockage Netapp, Cluster et MetroCluster FC ou IP - Net app StorageGrid - Sripting Bash, Python, Ansible, Powershell.
Ingénieur Cloud DevSecOps 4 à 8 ans d'expérience

Pour de nos clients, nous recherchons une personne dynamique et souriante ayant une bonne maitrise des pratiques DevSecOps, des connaissances solides en CyberSécurité et une appétence pour les technologies dites « Cloud Native » en général. Veuillez prendre connaissance du profil recherché via la description de poste ci-attachée. Nous ouvrons les candidatures dès maintenant et ce jusqu’au Vendredi 30 Avril 2025. Prestations attendues : Les prestations seront à réaliser au sein de l'équipe d'excellence opérationnelle (CEO) et feront fortement appel aux compétences de développement et d'ingénierie de la personne assurant les prestations. - Maintenance et mise à disposition des infrastructures cloud utilisées par les équipes de la Direction Technique du Numérique (Sites web, applications mobiles, outils métiers, streaming) - Maintenir, opérer et superviser nos cluster Kubernetes - Développement et administration de tests de sécurités automatisés et intégrés à nos pipeline CI/CD -Conseiller, former & accompagner les équipes de la DTNOC aux bonnes pratiques de la cyber-sécurité Environnement de travail : - Poste de travail : Linux / Mac OSX / Windows - Méthodologie : Agile / Scrumban - Outils : Git / GitLab / Terraform (Terragrunt) / Ansible / Kapitan / Helm / ArgoCD - Langages : Go, Yaml, Bash, Python - Infrastructure applicative : Micro-Services / API First / RabbitMQ / PostgreSQL / Prometheus / Varnish / CDN / Hashicorp Vault / Teleport - Infrastructure système : Linux / Multi Cloud (AWS/GCP/Azure) / Kubernetes / Docker
Big Data (Spark, Trino ou MinIO) Expérimenté

Contexte : Recherche un Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d’un grand groupe bancaire. Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps . Missions : Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Tech Lead KubOps
Nous sommes à la recherche d'un.e tech lead KubOps pour rejoindre les équipes de notre client. Missions principales : Conception et configuration des équipements réseau et Kubernetes. Mise en place de tests, validations et industrialisation du déploiement. Documentation des bonnes pratiques et formation des équipes. Reporting régulier des activités. Compétences requises : Kubernetes sur bare metal en environnement air-gapped . Vanilla KubeAdm / Rancher RKE2, Cilium / Calico, Cluster API, FluxCD, ArgoCD. Observabilité (Grafana, Prometheus, Loki, Tempo, Mimir), GitLab, Cert-Manager, CSI Dell / Rook-Ceph. Provisioning bare metal (Metal3), Kafka.
Tech Lead
Missions Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe au sein dynamique et expérimenté Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data & Analytics utilise e par l’ensemble des entités. Rôles et responsabilités En tant que membre de la squad Data and Analytics Platform, vous participerez aux activités suivantes : • Conception de la Data & Analytics Platform • Évolution des infrastructures cloud via l’Infrastructure as Code • Gestion d’un cluster kubernetes • Développement de micro-services en Python et C# • Conception et maintenance de chaînes de déploiement automatisé • Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform • Enrichissement de la documentation à l’attention des utilisateurs
Ingénieur Système Linux

Nous recherchons un Ingénieur Système Linux pour l'un de mes client dans le secteur bancaire pour une prestation de longue durée. Au sein de la division Infrastructure , le Delivery Linux est en charge de la gestion du socle technique Linux et des infrastructures Linux dans un contexte Cloud privé. L'évolution rapide et constante des technologies implique une transformation des architectures IT, des technologies, des process et des organisations, déjà initiée chez notre client. Au sein d'une équipe d'environ 25 personnes - Assurer le maintien en condition opérationnelle des infrastructures Linux RHEL (support, astreintes, évolution de l'infrastructure …) - Installer et réaliser le maintien en conditions opérationnelles des environnements cluster Veritas Cluster et GPFS sur Linux
Ingénieur AWS
Rôles et responsabilités En tant que membre de la squad Data and Analytics Platform, vous participerez aux activités suivantes : • Conception de la Data & Analytics Platform • Évolution des infrastructures cloud via l’Infrastructure as Code • Gestion d’un cluster kubernetes • Développement de micro-services en Python et C# • Conception et maintenance de chaînes de déploiement automatisé • Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform • Enrichissement de la documentation à l’attention des utilisateurs python
Ingénieur système Windows

Description du Poste : Maîtrise des Environnements Windows : Gestion des systèmes d'exploitation Windows de 2008 à 2022, y compris le clustering (OS, AD). Connaissances Réseau : Compréhension et gestion des réseaux. Scripting : Capacité à écrire et maintenir des scripts Powershell pour automatiser les tâches. Analyse et Proposition de Solutions : Capacité à analyser les problèmes et proposer des solutions efficaces. Communication : Compétences en communication, notamment en interaction avec les clients. Rédaction de Documents : Capacité à rédiger des documents techniques et des rapports. Responsabilités : Administration Systèmes : Installation, configuration et maintenance des serveurs Windows. Gestion des Services Réseau : Administration des services AD, DNS, LDAP. Sécurité : Mise en place et gestion des politiques de sécurité. Support Technique : Fournir un support technique de niveau 2 et 3. Documentation : Rédaction et mise à jour de la documentation technique. Collaboration : Travailler en étroite collaboration avec les équipes de développement et d'infrastructure.
Architecte de Données (H/F)

Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Architecte de données , vous assurerez les missions suivantes : Conception et robustesse des architectures Data : -Concevoir des modèles de données dimensionnels et relationnels (modèles étoilés, en flocon) adaptés aux besoins analytiques et métiers. -Formaliser les architectures et processus à l'aide d'outils de modélisation tels que UML, Modèle Entité-Relation (ER), BPMN et ArchiMate. -Déployer des standards de versionnement basés sur Semver pour une gestion rigoureuse des évolutions des produits data. -Optimisation et gouvernance des données : -Assurer une gestion robuste des produits data dans un cadre contractuel basé sur les principes ODCS (Open Digital Contract Standards). Optimiser les pipelines et requêtes BigQuery avec des techniques avancées comme le partitionnement, le clustering et les vues matérialisées. -Intégration et gestion des produits Data Mesh : -Collaborer avec les équipes Cloud et métier pour construire un Data Mesh fédéré, garantissant l'interopérabilité et la gouvernance des données. -Définir des API contractuelles robustes pour aligner les produits sur les besoins métier et garantir leur scalabilité. Modélisation des processus métiers : -Utiliser BPMN pour cartographier, analyser et optimiser les workflows métier en lien avec les données et les produits livrés. -Garantir la cohérence entre les processus métier et les architectures techniques proposées. Pilotage technique et encadrement : -Encadrer une équipe de Data Engineers utilisant Semarchy et DBT pour transformer les données en BigQuery. -Mettre en place des méthodologies agiles pour assurer une livraison rapide et de qualité des produits data. Sécurité et conformité : -Implémenter des contrôles stricts pour sécuriser les flux de données et garantir leur conformité aux standards de sécurité avancés. -Intégrer les principes de sécurité dans les contrats ODCS pour anticiper et mitiger les risques. La stack technique : Certifications : TOGAF obligatoire, CISSP souhaitée, certifications GCP et Semarchy appréciées. Logiciels : UML, ER, BPMN, ArchiMate ou équivalents.
Scrum Master (H/F)

Nous recherchons un Scrum Master pour rejoindre l’équipe Agile, Outils et Processus du département Marketing & Communication. La mission de l’équipe est de piloter la transformation agile au sein du département. Vous serez responsable de faciliter l’agilité au sein de plusieurs équipes (maximum 4) et de promouvoir l’amélioration continue des méthodes de travail et des processus. Missions : Conduire le changement et l’agilité au sein de votre cluster et des équipes. Faciliter les cérémonies agiles au niveau du cluster et des équipes. Piloter l’amélioration continue en collaboration avec le Product Owner et d’autres parties prenantes. Développer une culture agile et favoriser la dynamique d’équipe. Coacher et faciliter l’agilité et l’action dans l’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mise à jour info-retraiteil y a 3 heures
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 6 heures
- Impossible de liquider mon EURL !il y a 13 heures
- Choix logiciel comptabilitéil y a 14 heures
- Estimation immobilière gratuite dans les Ardennes : des conseils ?il y a 19 heures
- Calcul des cotisations sociales (EI à l'IS)il y a un jour