Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
TECH LEAD KAFKA
Nous recherchons un Tech Lead expérimenté pour piloter et optimiser nos projets basés sur Kafka et l'architecture Event-Driven. Le candidat idéal maîtrisera l'ensemble des technologies associées au streaming et au développement full-stack, tout en garantissant la sécurité et l'évolutivité des systèmes. Objectifs de la mission : • Garantir la performance et la robustesse des systèmes Kafka. • Mettre en place et superviser une architecture Event-Driven performante. • Assurer la sécurité et l'intégrité des données tout au long des processus. • Apporter une expertise technique à l'équipe et aux projets.
Expertise ELK

Contexte Mission Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe, nous proposons une mission d expert ELK Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search • Kafka • Splunk • AI : RAG, agentic développements, genai, … L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Administrateur SysOps (Kafka / Kibana / Elasticsearch)

Dans le cadre du développement d’une infrastructure de centralisation des logs basée sur les technologies Elastic Search/Kibana, nous recherchons un Administrateur SysOps. Le but de la mission est d'améliorer cette architecture en déployant ajoutant un service basé sur Kafka pour améliorer la fiabilité de la collecte d’événements. Dans ce contexte, la Prestation contribuera à : Ø Concevoir, mettre en œuvre et déployer une infrastructure Kafka pour les besoins du projet Logcentral gérant actuellement plus de 100 000 évènements par seconde. Ø Intégrer ce service avec les outils de monitoring et de métrologie de l’entreprise. Ø Industrialiser et automatiser les tâches de construction et de déploiement pour étendre cette infrastructure aux autres besoins internes. Ø Définir les bonnes pratiques pour la gouvernance du service. Le Prestataire devra s’assurer tout particulièrement de la mise en œuvre des meilleures pratiques de sécurité et du renforcement de la sécurité dans Kafka. Une expérience en matière de tableau de bord Kibana sera également utile. Livrables: Tout au long de la mission: - Service Kafka pour effectuer les tâches d’automatisation IT pour livrer et maintenir la documentation d’architecture de la solution
Développeur Expert Kafka

Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace. Profil & Compétences recherchées : - Expertise technique sur Apache Kafka (administration, technique, troubleshooting). - Schéma Avro & Schema Registry : validation, compatibilité et évolution. - Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace. - CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible. - Esprit analytique et capacité à résoudre des problèmes complexes. - Excellentes compétences en communication pour accompagner les équipes. - Approche DevOps et automatisation des processus. - Bonne compréhension des architectures de données (API, flux, BDD, etc.) - Anglais courant
lead data scala spark kafka

J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé. -- J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé.
Développeur Back-End Java – Médiation API & Événementiel (React / Kafka / Salesforce)

Développer sur la plateforme FASST avec une vision ADOPT en priorité Développer les services OAV permettant la Médiation avec Salesforce Travailler avec le techlead, le Product Owner Socle, le Product Owner Epargne Retraite, le Product Owner Santé Prévoyance et l’éditeur FASST Être un expert technique dans l’écosystème FASST Être l’expert technique de l’intégration de la plateforme FASST au sein de l’écosystème, notamment avec Salesforce. Participer au sein de l’équipe Vente à l’intégration du mode produit et des méthodes agiles (SAFE, SCRUM, etc..) pour accélérer notre delivery et prioriser la valeur des réalisations pour nos clients et notre Groupe.
Architecte logiciel C++ Qt (F/H)

Dans le cadre d’un projet de transformation reposant sur une architecture en microservices nous recherchons un architecte logiciel C++ expérimenté, capable de structurer le code, d’implémenter une architecture robuste et de collaborer avec nos équipes afin de poser les bases d’un développement pérenne. Objectif du Poste : Concevoir, définir et superviser les architectures applicatives pour différents périmètres, en assurant la cohérence technique, la scalabilité et la maintenabilité des solutions. Objectifs principaux : Mise en place d'une architecture moderne et performante orientée microservices. Application des meilleures pratiques pour organiser, structurer et industrialiser le code en C++. Utilisation et intégration d’un ensemble d’outils technologiques, notamment Conan, CMake, Qt, et modélisation avec ArchiMate, pour répondre aux attentes des utilisateurs et garantir la maintenabilité du logiciel. Architecture logicielle : Conception et modélisation d’architectures orientées microservices. Familiarité avec des protocoles de communication interservices (par exemple : gRPC, REST, etc.). Solides connaissances des pratiques de découplage et modularisation. Outillage : Conan : gestionnaire de dépendances pour faciliter le partage et le contrôle des bibliothèques externes. CMake : automatisation des scripts de configuration et de compilation du projet. ArchiMate : méthodes formalisées et outils pour la modélisation et la documentation d’architectures techniques et fonctionnelles. OS : maitrise de Linux, Unix au minimum Qualité & maintenabilité : Sensibilité particulière à la maintenabilité, scalabilité et robustesse des systèmes. Pratique des tests unitaires et d'intégration.
Expert technique - Event/Kafka

Rejoignez l'équipe en tant que Expert Kafka pour notre Plateforme Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace.
Développeur Full-Stack Java/Kafka/Angular

Dans le cadre du renforcement de son équipe IT, notre client recherche un Développeur Full-Stack disposant d'une expertise solide sur Java/Spring Boot côté back-end et Angular côté front-end. Vous interviendrez sur des projets à forte volumétrie, au sein d’un environnement technique exigeant, en architecture distribuée (Kafka, ESB, MDM), et en méthodologie agile. Vos missions : Participer à l’analyse, la conception et au développement de nouvelles fonctionnalités sur des applications critiques. Développer et maintenir des API REST/SOAP, gérer les communications asynchrones avec Kafka et MQ Series/JMS . Implémenter des mécanismes de sécurité via Spring Security + JWT . Travailler en architecture distribuée avec l’intégration de solutions ESB et MDM . Réaliser l'intégration continue et le déploiement via Jenkins , XLDeploy et OpenShift . Côté Front-End, concevoir des interfaces dynamiques avec Angular 8 , TypeScript , HTML5 , CSS3/SCSS , MobX , et PrimeNG . Participer activement aux tests (unitaires, end-to-end) avec Jest , JUnit , Cypress , Postman , Cucumber , Selenium ... Collaborer étroitement avec les équipes design (Zeplin) et métier pour assurer des livrables conformes aux attentes. Assurer la qualité du code (Clean Code, revue de code) et la supervision applicative via Dynatrace .
PO Technique Kafka

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme
INFRA - Ingénierie KAFKA Elasticsearch SENIOR

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à assurer le support , l'automatisation et le maintient en conditions opérationnelles des plateformes se basant sur les technologies mentionnées ci-dessus (Elasticsearch étant la priorité forte). L’équipe étant intégrée dans des écosystèmes de solutions automatisées, une compréhension de principes DevOps et la capacité à compléter notre outillage maison dans une logique versionnée et déployée est impérative. Cette mission a clairement un orientation production et donc nous cherchons avant tout une expertise à l'aise avec la gestion de la production ( et donc par opposition , moins des développeurs). Quoiqu'il en soit, l'environnement est hétérogène et il sera demandé d'investir du temps pour automatiser la plupart des tâches L1/L2 et le passage sur des Clouds interne ou hybrides ( voir externes) Dans le cadre de l'équipe Analytics, nous créons et maintenons des architectures Big Data pour les besoins interne de l’entreprise. Pour renforcer notre équipe, nous recherchons un ingénieur Elasticsearch / Kafka /Splunk avec des connaissances avancées de ces produits (support de production et accompagnement sur des architectures de grande volumétrie). Les principales technologies supportées sont (par ordre d'importance) • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Splunk • Kafka
EXPERT KAFKA (Elastic Stack (Elasticsearch / Logstash / Kibana / Beats)

Dans le cadre de sa transformation numérique, l’entreprise recherche un Data Engineer avec une forte expertise sur Kafka pour rejoindre son équipe Data Analytics au sein du département ITO / PaaS / Data Analytics. L'équipe conçoit, automatise et maintient des architectures Big Data critiques pour les besoins internes du groupe. Cette mission est axée principalement sur Kafka, tout en intégrant d’autres outils analytiques comme ELK et OpenSearch. __________ 🛠️ Missions principales • Apporter une expertise technique approfondie sur Kafka, dans un environnement Big Data critique. • Assurer le support, l’automatisation et la maintenance opérationnelle des plateformes Kafka, ELK et OpenSearch. • Contribuer au développement des outils et services de la squad Data Analytics. • Participer à l’amélioration continue des plateformes en lien avec les besoins métiers. • Intervenir sur le support de la plateforme WWW (applications analytiques internes). • Travailler en collaboration avec des équipes internationales (anglais requis).
Lead Technique Fullstack Java/Angular/Kafka

Vos responsabilités : Piloter la conception technique, l’architecture et les choix de design sur l’ensemble du périmètre applicatif. Encadrer et accompagner techniquement les développeurs (revue de code, mentoring, partage de bonnes pratiques). Participer activement au développement des modules backend en Java 10/11 , Spring Boot , Kafka , JMS , et Hibernate . Contribuer au développement du front-end avec Angular 8+, TypeScript, SCSS, PrimeNG , et assurer une bonne intégration UI/UX. Assurer la mise en place de l’intégration continue , des tests automatisés et du monitoring via GitLab CI, Jenkins, Cypress, Sonar, Dynatrace . Gérer l’intégration de services tiers via des API REST/SOAP , ESB, et systèmes de gestion des données (MDM). Travailler en étroite collaboration avec les architectes, les équipes DevOps et les métiers pour garantir la cohérence des livrables.
Business Analyst confirmé – Référentiels Données / Finance de Marché

✅ Contexte de la mission : Nous recherchons un Business Analyst confirmé pour intégrer une équipe dynamique, innovante et motivée, en charge de la gestion des référentiels transverses d’un grand groupe bancaire français. Cette équipe accompagne les métiers dans l’usage des données de référence et propose des services autour de l'acquisition, la consolidation, la distribution et la consommation de ces données. 💼 Vos missions : Vous interviendrez sur les référentiels Market Data (taux de change, taux interbancaires, calendriers de place) et Static Data (produits financiers, nomenclatures ISO, INSEE, BCE, internes). Dans un environnement Agile , vos principales responsabilités seront : Refonte d’une interface web de consultation des taux (Java/Angular) pour remplacer une application obsolète, avec des spécifications rédigées en BDD (Behaviour Driven Development) . Évolutions majeures du référentiel Produits Financiers (Resyproc) et refonte de son interface web (Java/Angular – BDD). Implémentation de la nouvelle nomenclature d'activités économiques (NACE/NAF) pour la diffusion de données via API, fichiers, Datalake, mainframe.
Big Data Dev - Scala / Cassandra

📌 Mission : Accompagnement Développement Big Data – Projet Lutte Contre la Fraude Dans le cadre d’un projet de refonte d’une application de lutte contre la fraude, notre client recherche un accompagnement technique afin de renforcer son équipe de développement Big Data (Java/Scala). 🎯 Objectifs de la mission : Accompagner techniquement les développeurs sur le projet Contribuer à l'amélioration de la vélocité et de la productivité de l’équipe Participer à la réflexion autour de l’architecture de la nouvelle application 💡 Stack technique : Langages : Scala (AKKA Actor / Play), Java Big Data : Spark , Hadoop (HTC) , Cassandra Bases de données : Oracle Streaming : Kafka Middleware : MQSeries DevOps / Qualité : Git , Jenkins , JUnit , Sonar Méthodologies : Agile (Scrum, Kanban) ✅ Compétences recherchées : Expérience solide en développement Java/Scala (front & back) Bonnes connaissances en DevOps Maîtrise des outils d’intégration continue et de qualité de code Capacité à intervenir dans un environnement Agile Sens de l’analyse et esprit de collaboration 📄 Livrables attendus : Audit technique du code et des processus existants Plan d’action pour améliorer la vélocité de l’équipe Propositions d’architecture pour la refonte applicative Recommandations techniques globales
Consultant Administrateur SysOps (Kafka / Kibana / Elasticsearch)

Dans le cadre du développement d’une infrastructure de centralisation des logs basée sur les technologies Elastic Search/Kibana, nous recherchons un Administrateur SysOps. Le but de la mission est d'améliorer cette architecture en déployant ajoutant un service basé sur Kafka pour améliorer la fiabilité de la collecte d’événements. Il s'agit d'une mission secret défense, la nationalité française est donc demandé. Dans ce contexte, la Prestation contribuera à : Ø Concevoir, mettre en œuvre et déployer une infrastructure Kafka pour les besoins du projet Logcentral gérant actuellement plus de 100 000 évènements par seconde. Ø Intégrer ce service avec les outils de monitoring et de métrologie de l’entreprise. Ø Industrialiser et automatiser les tâches de construction et de déploiement pour étendre cette infrastructure aux autres besoins internes. Ø Définir les bonnes pratiques pour la gouvernance du service. Le Prestataire devra s’assurer tout particulièrement de la mise en œuvre des meilleures pratiques de sécurité et du renforcement de la sécurité dans Kafka. Une expérience en matière de tableau de bord Kibana sera également utile. Livrables: Tout au long de la mission: - Service Kafka pour effectuer les tâches d’automatisation IT pour livrer et maintenir la documentation d’architecture de la solution
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- 10 ans d'exp pour TJM 500il y a une heure
- Téléphone portable acheté avec fonds perso au nom de la Sasuil y a 3 heures
- Choix logiciel comptabilitéil y a 12 heures
- Baisse TJM- Jours de recouvrementil y a 12 heures
- Calcul des cotisations sociales (EI à l'IS)il y a 17 heures
- Avis sociétés de portageil y a 17 heures