Trouvez votre prochaine offre d’emploi ou de mission freelance Kibana
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Administrateur SysOps (Kafka / Kibana / Elasticsearch)

Dans le cadre du développement d’une infrastructure de centralisation des logs basée sur les technologies Elastic Search/Kibana, nous recherchons un Administrateur SysOps. Le but de la mission est d'améliorer cette architecture en déployant ajoutant un service basé sur Kafka pour améliorer la fiabilité de la collecte d’événements. Dans ce contexte, la Prestation contribuera à : Ø Concevoir, mettre en œuvre et déployer une infrastructure Kafka pour les besoins du projet Logcentral gérant actuellement plus de 100 000 évènements par seconde. Ø Intégrer ce service avec les outils de monitoring et de métrologie de l’entreprise. Ø Industrialiser et automatiser les tâches de construction et de déploiement pour étendre cette infrastructure aux autres besoins internes. Ø Définir les bonnes pratiques pour la gouvernance du service. Le Prestataire devra s’assurer tout particulièrement de la mise en œuvre des meilleures pratiques de sécurité et du renforcement de la sécurité dans Kafka. Une expérience en matière de tableau de bord Kibana sera également utile. Livrables: Tout au long de la mission: - Service Kafka pour effectuer les tâches d’automatisation IT pour livrer et maintenir la documentation d’architecture de la solution
Consultant Administrateur SysOps (Kafka / Kibana / Elasticsearch)

Dans le cadre du développement d’une infrastructure de centralisation des logs basée sur les technologies Elastic Search/Kibana, nous recherchons un Administrateur SysOps. Le but de la mission est d'améliorer cette architecture en déployant ajoutant un service basé sur Kafka pour améliorer la fiabilité de la collecte d’événements. Il s'agit d'une mission secret défense, la nationalité française est donc demandé. Dans ce contexte, la Prestation contribuera à : Ø Concevoir, mettre en œuvre et déployer une infrastructure Kafka pour les besoins du projet Logcentral gérant actuellement plus de 100 000 évènements par seconde. Ø Intégrer ce service avec les outils de monitoring et de métrologie de l’entreprise. Ø Industrialiser et automatiser les tâches de construction et de déploiement pour étendre cette infrastructure aux autres besoins internes. Ø Définir les bonnes pratiques pour la gouvernance du service. Le Prestataire devra s’assurer tout particulièrement de la mise en œuvre des meilleures pratiques de sécurité et du renforcement de la sécurité dans Kafka. Une expérience en matière de tableau de bord Kibana sera également utile. Livrables: Tout au long de la mission: - Service Kafka pour effectuer les tâches d’automatisation IT pour livrer et maintenir la documentation d’architecture de la solution
Expert technique - Event/Kafka

Rejoignez l'équipe en tant que Expert Kafka pour notre Plateforme Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace.
Ingénieur Technico-Fonctionnel Si - Expertise API & Mco H/F

Nous recherchons un Ingénieur Technico-Fonctionnel SI disposant d'une solide culture technique et d'une expérience confirmée dans les environnements à forte volumétrie et de la MCO. Missions principales : - Participer à la conception, l'intégration et la maintenance des plateformes d'échanges de données (API, ESB) - Assurer la supervision, le support N2/N3 et le maintien en conditions opérationnelles des flux - Suivre les incidents et analyser les logs à l'aide de la suite ELK (Filebeat, Logstash, Kibana) - Contribuer à l'automatisation et à l'optimisation des traitements (Unix/Shell, Control-M) - Réaliser des tests d'intégration via SoapUI et exploiter les bases de données avec SQL Developer - Collaborer étroitement avec les équipes projets en mode Agile - Participer à l'évolution des architectures et à l'industrialisation des process
DEVOPS AWS/AZURE (H/F)

Collaborer avec les équipes de développement pour optimiser en continu leurs pipelines de livraison de code, en s’appuyant sur Ansible, Jenkins ou une autre solution CI (nous envisageons un changement). Assurer des mises à jour fluides afin de permettre une livraison à la demande. Surveiller la disponibilité et la performance de la plateforme à l’aide d’outils comme Kibana, Logic Monitor et Open Telemetry. Gérer les tickets de support, analyser les causes profondes des incidents et enrichir notre système de monitoring avec de nouvelles alertes. Renforcer notre stack de surveillance en ajoutant des métriques et des alertes pertinentes. Participer à la migration vers le cloud public en déployant des outils comme Terraform et Ansible. Accompagner les équipes de développement dans la transition de l’environnement Windows/.NET/.NET Core vers Linux/.NET Core/NodeJS, ainsi que dans l’évolution d’une architecture monolithique vers des microservices.
Administrateur expert NIFI - Nantes
En binôme avec le référent des installations et déploiements des composants NIFI et en lien avec : - le centre de développement des composants Nifi, - le pilote du projet Interfaces, - les équipes techniques de réalisation, Cette mission a pour objectif de faciliter la capacité à tenir les jalons, paralléliser les phases de tests d’intégration sur les vagues 2 et 3 et assurer un niveau de qualité en entrée des recettes fonctionnelles et métiers. Pour atteindre cet objectif pour chaque lot de recette, il sera nécessaire de : - Déployer les livraisons NIFI sur les environnements amont jusqu'à la production : - Contrôler les paquets de livraison - Mettre à jour le fichier de suivi des livraisons o Installer les composants - Réaliser les contrôles post-installation - Contrôler les manuels d’installation Contribuer à la réalisation des tests systèmes : - Analyser les jeux de données et le format des fichiers flags - Préparer et documenter les cas de tests dans Squash - Exécuter les jobs Nifi - Contrôler et analyser les fichiers résultats et logs - Consigner les anomalies détectées de manière détaillée dans Jira - Mettre à jour les cas de tests et les campagnes dans Jira - Suivre la prise en compte et la validation des anomalies, relancer les acteurs si nécessaire - Assurer un support technique Nifi lors de l’appropriation des dossiers de conception détaillée et des spécifications fonctionnelles du besoin - Assurer la communication et le reporting sur son périmètre pour garantir le bon déroulement et le pilotage du projet - Assurer un support technique sur Nifi aux équipes AMOA dans le cadre de leurs tests.
analyste DFIR/CTI (H/F) CDI Uniquement

En tant qu’analyste DFIR/CTI, vous allez rejoindre l’équipe réponse aux incidents cyber au sein du pôle Cyberdéfense. Vous veillerez à adopter les bonnes pratiques de réponse axées sur la connaissance de la menace et la bonne utilisation de nos services de CTI, avec pour grands principes : la remise en question et l’amélioration continue. L’objectif de la mission sera de répondre aux incidents cyber ainsi que réaliser activement de la veille sur la menace sur un périmètre couvrant le groupe ainsi que toutes ses filiales (35 000 collaborateurs dans le monde). Pour arriver à cet objectif, vous mènerez à bien au quotidien les 10 missions suivantes : Sur le volet DFIR : 1. Répondre aux incidents de cybersécurité, avec pour objectif de protéger le groupe en analysant les situations détectées, les méthodes de l'attaquant et son but, et en proposant des plans d'action pour y remédier ; 2. Améliorer les procédures (SOP) et fiches réflexes (IRG) en fonction des incidents et menaces traités ; 3. Automatiser les procédures (Playbook/Workbook) dans l’outil d’automatisation (SOAR) utilisé par le groupe ; 4. Participer à l’amélioration des process et outils pour mieux traiter les menaces les plus récurrentes ; 5. Améliorer la couverture de nos filiales en les aidant à adopter nos outils et processus pour aider le groupe à gagner en résilience chaque jour. Sur le volet CTI : 6. Réaliser en continu une veille sur les différentes menaces cyber, plus spécifiquement sur les différents acteurs et leur modus operandi (tactiques, techniques, procédures & indicateurs de compromission) ; 7. Participer à l’activité de Threat Hunting afin de compléter le dispositif Cyberdéfense dans son ensemble ; 8. Améliorer en continu le traitement des alertes CTI, comprenant la mise à jour des process et outils CTI ; 9. Améliorer et tirer au maximum de la valeur de nos outils CTI ainsi que la Cartographie CTI ; 10. Participer à la promotion du service CTI groupe auprès des autres équipes, filiales et directions, incluant les bulletins de veille et de menace.
Analyste SOC N3 (H/F) CDI Uniquement

Traitement des alertes de sécurité / RUN : Prise en compte et traitement des alertes et des incidents de sécurité remontés par les équipements de sécurité. o La qualification niveau N3 et enrichissement o Création des Dashboards sur Splunk o Threat Hunting o CTI et veille sur les menaces Référent Forensic : Préparation des outils de Forensic, par la personnalisation du KAPE et l’adapter à chaque type d’incident, et la création du documentation pour les analystes. Réponse à incident : Investigation des incidents de sécurité, accompagnement et émission des recommandations en temps réel, et création de la timeline de l’attaque
DEVELOPPEUR FRONT-END REACT F/H | NANTES (44)

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et contribuerez aux différents chantiers stratégiques et techniques. A ce titre, vous serez en charge de : Assurer un cadrage strict des implémentations avec une haute exigence sur la qualité du code et la couverture des tests . Garantir le maintien de l’ agilité et de la facilité d’évolution des solutions mises en place. Réaliser la r efonte, la modularisation et l'optimisation du code via le streamlining et la componentisation . Garantir la simplicité pour les autres parties prenantes Assurer un versioning maîtrisé via GitHub. Effectuer une veille technologique sur les stacks récentes (React 18, .NET, etc.) et participer aux guilds internes Mettre en place et optimiser la chaîne CI/CD et les déploiements sur MS Azure . Réaliser les développements et assurer la maintenance des tests E2E , avec un fort accent sur la qualité logicielle. Environnement Technique : Front-End : React JS (React 18), Redux, JavaScript/TypeScript, HTML. Back-End : .NET Core, REST APIs. DevOps & Cloud : CI/CD, Kubernetes, Docker, MS Azure. Tests & Qualité : Sonar, mise en place de tests E2E. Outils & Versioning : Git, GitHub. Data & Monitoring : Elastic Search, Kibana. Le poste est basé à nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 3 jours de télétravail par semaine.
Ingénieur DevOps F/H

Envie d’évoluer dans un environnement technique riche ? Envie de participer à un projet ambitieux ? Qualité d'analyse et réactivité te définissent ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour venir nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Tribu DevOps en charge de la stabilité de notre plateforme d’intégration continue, des chaines de déploiement continus, des environnements de développement et de la résilience de la production. Ton quotidien sera rythmé par : La participation à la définition des processus et à la mise en œuvre des outils pour assurer les tests, l’intégration et les déploiements applicatifs dans un contexte agile (IC, tests auto, feed-back) Le support et le maintien en condition opérationnelle de niveau 3 La coordination des opérations de maintenance et de mise à niveau avec une gestion des risques L’intégration et le paramétrage des nouvelles solutions L’évolution de l’architecture, amélioration des performances, la sécurité et la scalabilité dans le respect des meilleures pratiques et des processus qualité L’anticipation des besoins systèmes (capacity planning) La garantie du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications
Business Analyst
🚀 [Opportunité Business Analyst] Nous recherchons un Business Analyst (H/F) pour rejoindre une mission stratégique au sein d’une grande banque d’investissement. 📊💼 🎯 Vos missions : ✔️ Jouer un rôle clé entre les équipes métiers et techniques, en traduisant les besoins business en spécifications fonctionnelles et techniques. ✔️ Analyser et extraire des données (SQL, bases de données) pour optimiser la production et les reportings réglementaires (MIFID, EMIR, DFA, MMSR…). ✔️ Participer à la modélisation et à la manipulation des données, avec une forte expertise sur Excel, XML, JSON. ✔️ Travailler en méthodologie Agile (Scrum/Kanban) et collaborer via Jira et SharePoint. ✔️ Apporter votre expertise en environnement bancaire, et plus particulièrement en Capital Market. 🔎 Profil recherché : ✅ 3 à 5 ans d’expérience en tant que Business Analyst en environnement bancaire. ✅ Bonne compréhension des produits financiers et de la chaîne Front-to-Back. ✅ Connaissance des outils comme Collibra, Kibana, Business Object, Elastic Search, Bloomberg, Refinitiv (un plus). ✅ Compétences en développement (Python, Java) appréciées. ✅ Excellentes compétences en communication, esprit d’équipe et capacité à gérer le stress. ✅ Anglais courant indispensable. 📆 Disponibilité : ASAP
Expertise ELK

Contexte Mission Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe, nous proposons une mission d expert ELK Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search • Kafka • Splunk • AI : RAG, agentic développements, genai, … L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
ELK Senior Consultant: Logboard, Stack Management, OpenTelemetry, Linux, Remote Working (h/f)

Vous êtes un expert Logboard ELK expérimenté dans la gestion d'environnements globaux à grande échelle ? Alors emagine recherche vos compétences pour gérer et optimiser un environnement de 500 nœuds, développer des pipelines d'ingestion de logs, créer des tableaux de bord et mettre en œuvre des solutions d'observabilité pour assurer la fiabilité et la performance des systèmes. Are you a Logboard ELK expert experienced in managing large scale global environments? Then emagine is looking for your skills to manage and optomize a 500 node environment, developing log ingestion pipelines, creating dashboards, and implementing observability solutions to ensure the reliability and performance of the systems Key Skills: Over 4 years of experience with the ELK stack (Elasticsearch, Logstash, Kibana). Skilled in developing log ingestion pipelines, managing Elasticsearch clusters, and creating Kibana dashboards. Strong expertise in managing Linux-based environments. Experience with scripting languages such as Python or Bash for automation tasks. Familiarity with cloud platforms (e.g., AWS, Azure) and infrastructure as code tools (e.g., Terraform, Puppet). Excellent communication skills in written and verbal English. Relevant certifications in ELK stack or cloud platforms. Experience with OpenTelemetry implementation (Preferred). Previous experience working in a global multicultural distributed team environment. Key Tasks: Configure, administer, and optimize the ELK platform to ensure efficient log collection, storage, and analysis. Develop and maintain log ingestion pipelines using Logstash and Filebeat to ensure seamless data flow. Design and implement Kibana dashboards for real-time monitoring and analysis of log data. Implement end-to-end observability solutions to enhance system monitoring and troubleshooting capabilities. Conduct performance tuning and optimization of Elasticsearch clusters to handle large-scale data. Provide support during incidents, perform root cause analysis, and implement corrective actions. Work closely with development, operations, and security teams to integrate logging and monitoring solutions. For full project details please apply with your latest CV or call Brendan with your questions.
Administrateur Elasticsearch

Objectifs de la mission Dans le cadre de projets internes et de besoins clients, nous recherchons un(e) expert(e) Elastic Stack pour intervenir sur les missions suivantes : Concevoir, développer, déployer et faire évoluer une plateforme Elasticsearch . Structurer un écosystème technique complet et cohérent autour de cette plateforme, couvrant les aspects suivants : Infrastructure Conception d’une infrastructure hautement disponible . Optimisation des technologies de stockage utilisées. Gestion de la capacité et de la disponibilité . Application des mises à jour logicielles et des correctifs de sécurité (Elastic Cloud Enterprise et infrastructure). Orchestration de la suite Elastic Garantie de la connectivité entre les composants. Automatisation des changements de configuration. Gestion de la capacité selon les besoins clients . Mise en place de snapshots périodiques . Accompagnement des utilisateurs dans la résolution de problématiques techniques . Intégration d’une chaine de fabrication complète : Artifactory, GitLab, GitLab CI, Ansible. Industrialisation et automatisation des tâches de RUN autour d’Elasticsearch, Kibana, Logstash et Beats. Contexte technique Environnement de production informatique structuré autour de 4 plateformes Elastic Cloud Enterprise . Environ 300 déploiements de la stack Elastic, comprenant : 2 000 instances Elasticsearch 700 instances Kibana 70 instances APM 600 instances Logstash Volumétrie : 60 To/s Les développements s'appuient sur une chaîne de fabrication intégrant Git (versioning), CI/CD (GitLab CI) , Ansible , avec des études en cours pour un futur déploiement sur Kubernetes . L’environnement est interconnecté à des plateformes critiques telles que : Plateforme de streaming Plateforme d’ orchestration de conteneurs Plateforme de virtualisation Applications critiques
Tech lead Java Senior - Nantes (H/F)

Notre client dans l'assurance recherche un freelance Tech Lead Java expérimenté avec une solide expérience en applications B2C. Garant de la sécurité et des performances . Force de proposition technique et fonctionnelle . Capable de communiquer efficacement entre les développeurs et les autres équipes pour partager notre vision. Participation active à la communauté des architectes . Domaine : Espace assuré dans le domaine de l' assurance emprunteur & prévoyance Travail au sein de Feature Teams de 8 personnes (3 Front, 2 Java, 1 Testeur, 1 Expert Métier, 1 PO). Équipe agile en mode DevOps (AWS, K8S, Kibana). Technologies : Java 21 , SpringBoot 3.4 , API Rest , OpenId Connect , Kibana , GitLab , K8S .
[Lisboa, Portugal] Senior ELK Monitoring & Implementation
Contexte de la mission We are seeking expertise in the development, use, and implementation of the ELK (Elasticsearch, Logstash, Kibana) stack to enhance our log monitoring platform, Logboard. As we expand our monitoring coverage, we are onboarding several company entities and internal products to leverage Logboard's capabilities. Our strategic roadmap for monitoring solutions within the corporate requires increased delivery and study capacity to support ongoing initiatives. The services required include: the delivery of operations on the ELK product. configuration and administration of the ELK platform. development of log collection and indexation scripts. contribution to monitoring studies.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel TJM pour une mission longue ?il y a une heure
- Calcul des cotisations sociales (EI à l'IS)il y a un jour
- Revente de matériel d'occasion : bonnes pratiques ?il y a un jour
- Travail ancien employeuril y a un jour
- Impossible de liquider mon EURL !il y a 2 jours
- Etat du marché - Avril 2025il y a 2 jours