Trouvez votre prochaine offre d’emploi ou de mission freelance Logstash
PLATFORM ENGINEER F/H | MONTPELLIER (34)

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client pour un contexte de plateforme d'observabilité. A ce titre, vous serez en charge de : Maîtriser des outils comme Ansible pour gérer et provisionner l'infrastructure. Maîtriser Docker et Kubernetes pour déployer, gérer et orchestrer des conteneurs. Utiliser Prometheus, Grafana, ELK Stack (Elasticsearch, Logstash, Kibana), et Dynatrace pour assurer la surveillance et le traçage des applications. Rédiger des scripts Python, Bash pour automatiser les tâches répétitives. Mettre en place les meilleures pratiques en matières de sécurité pour protéger les données et les systèmes Le poste est basé à Montpellier (34) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.
Expert technique - Event/Kafka

Rejoignez l'équipe en tant que Expert Kafka pour notre Plateforme Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace.
EXPERT KAFKA (Elastic Stack (Elasticsearch / Logstash / Kibana / Beats)

Dans le cadre de sa transformation numérique, l’entreprise recherche un Data Engineer avec une forte expertise sur Kafka pour rejoindre son équipe Data Analytics au sein du département ITO / PaaS / Data Analytics. L'équipe conçoit, automatise et maintient des architectures Big Data critiques pour les besoins internes du groupe. Cette mission est axée principalement sur Kafka, tout en intégrant d’autres outils analytiques comme ELK et OpenSearch. __________ 🛠️ Missions principales • Apporter une expertise technique approfondie sur Kafka, dans un environnement Big Data critique. • Assurer le support, l’automatisation et la maintenance opérationnelle des plateformes Kafka, ELK et OpenSearch. • Contribuer au développement des outils et services de la squad Data Analytics. • Participer à l’amélioration continue des plateformes en lien avec les besoins métiers. • Intervenir sur le support de la plateforme WWW (applications analytiques internes). • Travailler en collaboration avec des équipes internationales (anglais requis).
Ingénieur Technico-Fonctionnel Si - Expertise API & Mco H/F

Nous recherchons un Ingénieur Technico-Fonctionnel SI disposant d'une solide culture technique et d'une expérience confirmée dans les environnements à forte volumétrie et de la MCO. Missions principales : - Participer à la conception, l'intégration et la maintenance des plateformes d'échanges de données (API, ESB) - Assurer la supervision, le support N2/N3 et le maintien en conditions opérationnelles des flux - Suivre les incidents et analyser les logs à l'aide de la suite ELK (Filebeat, Logstash, Kibana) - Contribuer à l'automatisation et à l'optimisation des traitements (Unix/Shell, Control-M) - Réaliser des tests d'intégration via SoapUI et exploiter les bases de données avec SQL Developer - Collaborer étroitement avec les équipes projets en mode Agile - Participer à l'évolution des architectures et à l'industrialisation des process
Expertise Infrastructure & AIOPS

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la gestion de l'automatisation. Expertise : Dynatrace/Ansible/DAIR/Gitlab/Scripting/Websphere/Tomcat/CFT/MQ/Kubernetes/Docker/podman/apache/ArgoCD/terraform au sein de l’équipe sera nécessaire. Les missions sont: - Le maintien , le suivi, la gérance du monitoring avec les différents outils avec un focus avec Dynatrace - Maintien du monitoring des applications selon une vision end to end et intégrer la gestion des logs avec les outils internes et service de log monitoring dans une vision IA - Maintien des rôles et playbooks de déploiement ansible, - Gérance des déploiements d’EAR/WAR sur WebSphere, - Support des outils à usage des applications CFT, MQ, Oracle , WAS, GPG - Création des environnements techniques applicatifs - Maintien de quelques astreintes en HNO par an (Upgrade de l'obso, incident)
Expertise ELK

Contexte Mission Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe, nous proposons une mission d expert ELK Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search • Kafka • Splunk • AI : RAG, agentic développements, genai, … L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Ingénieur DevOps F/H

Envie d’évoluer dans un environnement technique riche ? Envie de participer à un projet ambitieux ? Qualité d'analyse et réactivité te définissent ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour venir nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Tribu DevOps en charge de la stabilité de notre plateforme d’intégration continue, des chaines de déploiement continus, des environnements de développement et de la résilience de la production. Ton quotidien sera rythmé par : La participation à la définition des processus et à la mise en œuvre des outils pour assurer les tests, l’intégration et les déploiements applicatifs dans un contexte agile (IC, tests auto, feed-back) Le support et le maintien en condition opérationnelle de niveau 3 La coordination des opérations de maintenance et de mise à niveau avec une gestion des risques L’intégration et le paramétrage des nouvelles solutions L’évolution de l’architecture, amélioration des performances, la sécurité et la scalabilité dans le respect des meilleures pratiques et des processus qualité L’anticipation des besoins systèmes (capacity planning) La garantie du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications
Administrateur Elasticsearch

Objectifs de la mission Dans le cadre de projets internes et de besoins clients, nous recherchons un(e) expert(e) Elastic Stack pour intervenir sur les missions suivantes : Concevoir, développer, déployer et faire évoluer une plateforme Elasticsearch . Structurer un écosystème technique complet et cohérent autour de cette plateforme, couvrant les aspects suivants : Infrastructure Conception d’une infrastructure hautement disponible . Optimisation des technologies de stockage utilisées. Gestion de la capacité et de la disponibilité . Application des mises à jour logicielles et des correctifs de sécurité (Elastic Cloud Enterprise et infrastructure). Orchestration de la suite Elastic Garantie de la connectivité entre les composants. Automatisation des changements de configuration. Gestion de la capacité selon les besoins clients . Mise en place de snapshots périodiques . Accompagnement des utilisateurs dans la résolution de problématiques techniques . Intégration d’une chaine de fabrication complète : Artifactory, GitLab, GitLab CI, Ansible. Industrialisation et automatisation des tâches de RUN autour d’Elasticsearch, Kibana, Logstash et Beats. Contexte technique Environnement de production informatique structuré autour de 4 plateformes Elastic Cloud Enterprise . Environ 300 déploiements de la stack Elastic, comprenant : 2 000 instances Elasticsearch 700 instances Kibana 70 instances APM 600 instances Logstash Volumétrie : 60 To/s Les développements s'appuient sur une chaîne de fabrication intégrant Git (versioning), CI/CD (GitLab CI) , Ansible , avec des études en cours pour un futur déploiement sur Kubernetes . L’environnement est interconnecté à des plateformes critiques telles que : Plateforme de streaming Plateforme d’ orchestration de conteneurs Plateforme de virtualisation Applications critiques
ELK Senior Consultant: Logboard, Stack Management, OpenTelemetry, Linux, Remote Working (h/f)

Vous êtes un expert Logboard ELK expérimenté dans la gestion d'environnements globaux à grande échelle ? Alors emagine recherche vos compétences pour gérer et optimiser un environnement de 500 nœuds, développer des pipelines d'ingestion de logs, créer des tableaux de bord et mettre en œuvre des solutions d'observabilité pour assurer la fiabilité et la performance des systèmes. Are you a Logboard ELK expert experienced in managing large scale global environments? Then emagine is looking for your skills to manage and optomize a 500 node environment, developing log ingestion pipelines, creating dashboards, and implementing observability solutions to ensure the reliability and performance of the systems Key Skills: Over 4 years of experience with the ELK stack (Elasticsearch, Logstash, Kibana). Skilled in developing log ingestion pipelines, managing Elasticsearch clusters, and creating Kibana dashboards. Strong expertise in managing Linux-based environments. Experience with scripting languages such as Python or Bash for automation tasks. Familiarity with cloud platforms (e.g., AWS, Azure) and infrastructure as code tools (e.g., Terraform, Puppet). Excellent communication skills in written and verbal English. Relevant certifications in ELK stack or cloud platforms. Experience with OpenTelemetry implementation (Preferred). Previous experience working in a global multicultural distributed team environment. Key Tasks: Configure, administer, and optimize the ELK platform to ensure efficient log collection, storage, and analysis. Develop and maintain log ingestion pipelines using Logstash and Filebeat to ensure seamless data flow. Design and implement Kibana dashboards for real-time monitoring and analysis of log data. Implement end-to-end observability solutions to enhance system monitoring and troubleshooting capabilities. Conduct performance tuning and optimization of Elasticsearch clusters to handle large-scale data. Provide support during incidents, perform root cause analysis, and implement corrective actions. Work closely with development, operations, and security teams to integrate logging and monitoring solutions. For full project details please apply with your latest CV or call Brendan with your questions.
INFRA - Ingénierie KAFKA Elasticsearch SENIOR

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à assurer le support , l'automatisation et le maintient en conditions opérationnelles des plateformes se basant sur les technologies mentionnées ci-dessus (Elasticsearch étant la priorité forte). L’équipe étant intégrée dans des écosystèmes de solutions automatisées, une compréhension de principes DevOps et la capacité à compléter notre outillage maison dans une logique versionnée et déployée est impérative. Cette mission a clairement un orientation production et donc nous cherchons avant tout une expertise à l'aise avec la gestion de la production ( et donc par opposition , moins des développeurs). Quoiqu'il en soit, l'environnement est hétérogène et il sera demandé d'investir du temps pour automatiser la plupart des tâches L1/L2 et le passage sur des Clouds interne ou hybrides ( voir externes) Dans le cadre de l'équipe Analytics, nous créons et maintenons des architectures Big Data pour les besoins interne de l’entreprise. Pour renforcer notre équipe, nous recherchons un ingénieur Elasticsearch / Kafka /Splunk avec des connaissances avancées de ces produits (support de production et accompagnement sur des architectures de grande volumétrie). Les principales technologies supportées sont (par ordre d'importance) • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Splunk • Kafka
Ingénieur devops Infrastructure Dynatrace Anglais 450 e

Ingénieur devops Infrastructure Dynatrace Anglais 450 e - Le maintien , le suivi, la gérance du monitoring avec les différents outils avec un focus avec Dynatrace - Maintien du monitoring des applications selon une vision end to end et intégrer la gestion des logs avec les outils internes et service de log monitoring dans une vision IA - Maintien des rôles et playbooks de déploiement ansible dans le cadre des migrations Oracle EXACC - Gérance des déploiements d’EAR/WAR sur WebSphere dans le cadre des migrations Oracle EXACC, - Support des outils à usage des applications CFT, MQ, Oracle , WAS - Accompagnement dans le cadre de la mise en place Logs Listening. - Accompagnement dans le cadre de la gestion de l'obsolescence Linux. Compétences technologiques : • Logstash, Kibana, Filebeat, elasticsearch • WebSphere • Ansible, Gitlab • shell UNIX • Linux • Windows • Kubernetes • Terraform • Oracle • sql • Anglais 450 e/ J
Développeur Fullstack Python/ React.js

Nous recherchons un Développeur Fullstack Python / React.js pour accompagner le développement et la maintenance d’un outil stratégique au sein de notre organisation. Vous travaillerez en étroite collaboration avec les équipes IT, conformité, ressources humaines, middle office et autres fonctions transverses. Missions principales Recueillir et comprendre les besoins métier, puis les traduire en solutions techniques adaptées. Développer des fonctionnalités web en fullstack (frontend avec React.js et backend avec Python). Assurer la maintenance corrective et évolutive des outils existants. Participer activement au cycle de développement agile (planification, revues, sprints) en collaboration avec les Product Owners. Appliquer les meilleures pratiques de développement : CI/CD, tests unitaires, qualité de code et documentation. Interagir régulièrement avec les utilisateurs finaux et les parties prenantes pour garantir la pertinence des solutions livrées. Livrables attendus Fonctionnalités livrées et documentées dans le backlog agile. Code testé, intégré et conforme aux standards internes. Documentation technique et utilisateur complète. Contribution active aux cérémonies agiles de l’équipe. Stack technologique Langages & Frameworks : Backend : Python Frontend : React.js Base de données & requêtage : SQL Outils de supervision & recherche : ELK Stack (Elasticsearch, Logstash, Kibana) Méthodologie & DevOps : Intégration continue (CI/CD) Tests unitaires et fonctionnels Méthodologie Agile (Scrum / Kanban) Outils de gestion de projet (Jira / GitLab)
Architecte OpenStack

L'entreprise recherche activement un Architecte OpenStack/Kubernetes pour accompagner le développement, le run et l’automatisation de ses environnements de production. Vous intégrerez une équipe transverse en charge des solutions d’infrastructure cloud sur toutes les régions utilisées par l'entreprise. 🎯 Vos missions : Contribuer à l’évolution et au design des architectures OpenStack & Kubernetes utilisées par les équipes IT de l'entreprise. Participer à la migration des workloads depuis VMware vers OpenStack . Développer, maintenir et documenter les plateformes de production basées sur OpenStack, Kubernetes et les solutions associées. Déployer et maintenir des outils de monitoring, de reporting et d’automatisation . Industrialiser et automatiser les tâches L1/L2 et le catalogue de services associé. Être force de proposition sur les choix techniques et participer à la veille technologique . Assurer le support et le troubleshooting niveau expert en lien avec les équipes infrastructure. Produire une documentation technique et fonctionnelle claire et réutilisable. 🛠️ Stack & compétences techniques attendues : Systèmes : Linux RedHat / Ubuntu Virtualisation / stockage : KVM, iSCSI, CEPH Réseau : iptables, CNI, VXLAN, BGP Automatisation : Ansible, Python Conteneurs / orchestration : Kubernetes, Docker, Prometheus, CSI Observabilité : ELK, Logstash Cloud natif / CI-CD : intégration d’outils DevOps, GitOps Expérience dans la mise en production d’architectures cloud hybrides et complexes Bonne connaissance des enjeux de performance, sécurité, haute disponibilité
Expert ElasticSearch
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Expert ElasticSearch. Vous intégrerez une équipe spécialisée dans la gestion et l’administration de plateformes DevOps, Cloud et Data . MISSIONS PRINCIPALES : Conception, déploiement et optimisation d’une plateforme ElasticSearch. Administration et orchestration des composants Elastic (Elasticsearch, Kibana, Logstash, Beats, APM). Automatisation des processus de déploiement et de maintenance. Sécurisation et optimisation des performances de la plateforme. Accompagnement et conseil des équipes clientes.
Développeur Expert Kafka

Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace. Profil & Compétences recherchées : - Expertise technique sur Apache Kafka (administration, technique, troubleshooting). - Schéma Avro & Schema Registry : validation, compatibilité et évolution. - Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace. - CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible. - Esprit analytique et capacité à résoudre des problèmes complexes. - Excellentes compétences en communication pour accompagner les équipes. - Approche DevOps et automatisation des processus. - Bonne compréhension des architectures de données (API, flux, BDD, etc.) - Anglais courant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance No-codeil y a 2 minutes
- Facture impayé que faire ?il y a une heure
- Proposition de CDI en tant que freelanceil y a 4 heures
- comment negocier frais mission ville éloignée ?il y a 4 heures
- Valoriser des travaux R&D faits soi-même sans salairesil y a 4 heures
- Clause de non concurrence en CDIil y a 6 heures