Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Tech Lead Kafka Linux Redhat XP VMware

Contexte : La ressource interviendra au sein du Train Data. Objectif mission : - Assurer un rôle de référent technique au sein des équipes - Mettre en oeuvre les changements pour rationaliser et automatiser les opérations dans le cadre du DevSecOps - Mettre en place les composants nécessaires à un usage en mode self-service des équipes - Assurer la cohérence de l'architecture avec le System Architect du train - Assurer l’application des normes de qualité et de sécurité par les équipes agiles - Assurer le support Niveau 3 et le maintien en condition opérationnelle - Réaliser des développements en Java / JEE Front et Back
Développeur Full-Stack Java/Kafka/Angular

Dans le cadre du renforcement de son équipe IT, notre client recherche un Développeur Full-Stack disposant d'une expertise solide sur Java/Spring Boot côté back-end et Angular côté front-end. Vous interviendrez sur des projets à forte volumétrie, au sein d’un environnement technique exigeant, en architecture distribuée (Kafka, ESB, MDM), et en méthodologie agile. Vos missions : Participer à l’analyse, la conception et au développement de nouvelles fonctionnalités sur des applications critiques. Développer et maintenir des API REST/SOAP, gérer les communications asynchrones avec Kafka et MQ Series/JMS . Implémenter des mécanismes de sécurité via Spring Security + JWT . Travailler en architecture distribuée avec l’intégration de solutions ESB et MDM . Réaliser l'intégration continue et le déploiement via Jenkins , XLDeploy et OpenShift . Côté Front-End, concevoir des interfaces dynamiques avec Angular 8 , TypeScript , HTML5 , CSS3/SCSS , MobX , et PrimeNG . Participer activement aux tests (unitaires, end-to-end) avec Jest , JUnit , Cypress , Postman , Cucumber , Selenium ... Collaborer étroitement avec les équipes design (Zeplin) et métier pour assurer des livrables conformes aux attentes. Assurer la qualité du code (Clean Code, revue de code) et la supervision applicative via Dynatrace .
PO Technique Kafka

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme
Lead Technique Fullstack Java/Angular/Kafka

Vos responsabilités : Piloter la conception technique, l’architecture et les choix de design sur l’ensemble du périmètre applicatif. Encadrer et accompagner techniquement les développeurs (revue de code, mentoring, partage de bonnes pratiques). Participer activement au développement des modules backend en Java 10/11 , Spring Boot , Kafka , JMS , et Hibernate . Contribuer au développement du front-end avec Angular 8+, TypeScript, SCSS, PrimeNG , et assurer une bonne intégration UI/UX. Assurer la mise en place de l’intégration continue , des tests automatisés et du monitoring via GitLab CI, Jenkins, Cypress, Sonar, Dynatrace . Gérer l’intégration de services tiers via des API REST/SOAP , ESB, et systèmes de gestion des données (MDM). Travailler en étroite collaboration avec les architectes, les équipes DevOps et les métiers pour garantir la cohérence des livrables.
EXPERT KAFKA (Elastic Stack (Elasticsearch / Logstash / Kibana / Beats)

Dans le cadre de sa transformation numérique, l’entreprise recherche un Data Engineer avec une forte expertise sur Kafka pour rejoindre son équipe Data Analytics au sein du département ITO / PaaS / Data Analytics. L'équipe conçoit, automatise et maintient des architectures Big Data critiques pour les besoins internes du groupe. Cette mission est axée principalement sur Kafka, tout en intégrant d’autres outils analytiques comme ELK et OpenSearch. __________ 🛠️ Missions principales • Apporter une expertise technique approfondie sur Kafka, dans un environnement Big Data critique. • Assurer le support, l’automatisation et la maintenance opérationnelle des plateformes Kafka, ELK et OpenSearch. • Contribuer au développement des outils et services de la squad Data Analytics. • Participer à l’amélioration continue des plateformes en lien avec les besoins métiers. • Intervenir sur le support de la plateforme WWW (applications analytiques internes). • Travailler en collaboration avec des équipes internationales (anglais requis).
Big Data Dev - Scala / Cassandra

📌 Mission : Accompagnement Développement Big Data – Projet Lutte Contre la Fraude Dans le cadre d’un projet de refonte d’une application de lutte contre la fraude, notre client recherche un accompagnement technique afin de renforcer son équipe de développement Big Data (Java/Scala). 🎯 Objectifs de la mission : Accompagner techniquement les développeurs sur le projet Contribuer à l'amélioration de la vélocité et de la productivité de l’équipe Participer à la réflexion autour de l’architecture de la nouvelle application 💡 Stack technique : Langages : Scala (AKKA Actor / Play), Java Big Data : Spark , Hadoop (HTC) , Cassandra Bases de données : Oracle Streaming : Kafka Middleware : MQSeries DevOps / Qualité : Git , Jenkins , JUnit , Sonar Méthodologies : Agile (Scrum, Kanban) ✅ Compétences recherchées : Expérience solide en développement Java/Scala (front & back) Bonnes connaissances en DevOps Maîtrise des outils d’intégration continue et de qualité de code Capacité à intervenir dans un environnement Agile Sens de l’analyse et esprit de collaboration 📄 Livrables attendus : Audit technique du code et des processus existants Plan d’action pour améliorer la vélocité de l’équipe Propositions d’architecture pour la refonte applicative Recommandations techniques globales
Business Analyst confirmé – Référentiels Données / Finance de Marché

✅ Contexte de la mission : Nous recherchons un Business Analyst confirmé pour intégrer une équipe dynamique, innovante et motivée, en charge de la gestion des référentiels transverses d’un grand groupe bancaire français. Cette équipe accompagne les métiers dans l’usage des données de référence et propose des services autour de l'acquisition, la consolidation, la distribution et la consommation de ces données. 💼 Vos missions : Vous interviendrez sur les référentiels Market Data (taux de change, taux interbancaires, calendriers de place) et Static Data (produits financiers, nomenclatures ISO, INSEE, BCE, internes). Dans un environnement Agile , vos principales responsabilités seront : Refonte d’une interface web de consultation des taux (Java/Angular) pour remplacer une application obsolète, avec des spécifications rédigées en BDD (Behaviour Driven Development) . Évolutions majeures du référentiel Produits Financiers (Resyproc) et refonte de son interface web (Java/Angular – BDD). Implémentation de la nouvelle nomenclature d'activités économiques (NACE/NAF) pour la diffusion de données via API, fichiers, Datalake, mainframe.
Data Ops

Au sein de l’équipe de RUN, vous aurez en charge : D’accompagner nos clients entités dans l’intégration de leurs projets sur les services Data D’acculturer et accompagner les clients sur les services Data De collaborer au Build des socles techniques dans des environnements cloud et containers D’accompagner le déploiement des solutions d’infrastructure et utilisation des outils (Chaine CI/CD, outils de monitoring, aspects sécurités) Support niveau 1 & 2 des environnements de développement et de production De contribuer à l'amélioration de la documentation De participer aux gestions des incidents et des crises De gérer l'après-crise et les incidents pour corriger l'utilisation, la mise en œuvre et le cycle de vie des modèles. De suivre la Gestion des changements De suivre le Capacity planning et le reporting FinOps
Consultant Administrateur SysOps (Kafka / Kibana / Elasticsearch)

Dans le cadre du développement d’une infrastructure de centralisation des logs basée sur les technologies Elastic Search/Kibana, nous recherchons un Administrateur SysOps. Le but de la mission est d'améliorer cette architecture en déployant ajoutant un service basé sur Kafka pour améliorer la fiabilité de la collecte d’événements. Il s'agit d'une mission secret défense, la nationalité française est donc demandé. Dans ce contexte, la Prestation contribuera à : Ø Concevoir, mettre en œuvre et déployer une infrastructure Kafka pour les besoins du projet Logcentral gérant actuellement plus de 100 000 évènements par seconde. Ø Intégrer ce service avec les outils de monitoring et de métrologie de l’entreprise. Ø Industrialiser et automatiser les tâches de construction et de déploiement pour étendre cette infrastructure aux autres besoins internes. Ø Définir les bonnes pratiques pour la gouvernance du service. Le Prestataire devra s’assurer tout particulièrement de la mise en œuvre des meilleures pratiques de sécurité et du renforcement de la sécurité dans Kafka. Une expérience en matière de tableau de bord Kibana sera également utile. Livrables: Tout au long de la mission: - Service Kafka pour effectuer les tâches d’automatisation IT pour livrer et maintenir la documentation d’architecture de la solution
expert kafka dataops

je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle -- je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle
Expertise Kafka

Dans le cadre de l'équipe CIB ITO/PaaS/Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support/dev , nous proposons une mission de DATA ENGINEERING sur KAFKA et ELASTIC/OPENSEARCH Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search • Kafka • Splunk • AI L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Developpeur JAVA Fullstack (Java / Angular)
Votre mission : Développement de services conteneurisés en JAVA Springboot et utilisation des services de messaging comme Kafka Interaction pro-active avec les analystes business, les opérationnels et les équipes architecture afin d’analyser et de proposer les évolutions à apporter. Maintenance corrective/évolutive des applications sur d’ancienne technologie tel que EAP6 Utilisation d’outil APM pour monitorer et amélioration des performances des applications Participation aux différentes phases de tests et mises en production des solutions développées Documentation des solutions développées Travail en mode Agile (kanban)
Business Analyst – Données financières / Market Data – Banque d’investissement – Méthode Agile / BDD

Nous recherchons un Business Analyst Confirmé pour intervenir sur des référentiels de données financières stratégiques (Market Data et Static Data) dans un grand groupe bancaire. Vous rejoindrez une équipe transverse et agile, en charge des données de référence utilisées quotidiennement par les métiers Front, Risques et Finance. Vos missions : Cadrage et spécification d’une nouvelle interface Web (Java/Angular) de consultation des taux de change et interbancaires. Participation à la refonte d’un référentiel de produits financiers , tant sur le plan fonctionnel que technologique. Implémentation d’une nouvelle version des nomenclatures économiques (NACE/NAF) et définition des canaux de distribution (API, fichiers, Datalake…).
Ingénieur de Production/Devops

🔸 Exécuter et optimiser les processus de déploiement applicatif sous Kubernetes . 🔸 Assurer la gestion des incidents et garantir la livraison des jeux. 🔸 Intégrer les développements dans les pipelines CI/CD via GitLab CI . 🔸 Ajuster la métrologie et créer des dashboards avec Grafana . 🔸 Mener des investigations techniques approfondies dans un environnement Kubernetes . 🔸 Participer à l’intégration des développeurs dans les pipelines de déploiement. 🔸 Assurer le support technique et la maintenance des applications back-office ( Active Directory ).
"Teh lead Kafka"
Nous recherchons un Tech Lead expérimenté pour piloter et optimiser nos projets basés sur Kafka et l'architecture Event-Driven. Le candidat idéal maîtrisera l'ensemble des technologies associées au streaming et au développement full-stack, tout en garantissant la sécurité et l'évolutivité des systèmes. Objectifs de la mission : • Garantir la performance et la robustesse des systèmes Kafka. • Mettre en place et superviser une architecture Event-Driven performante. • Assurer la sécurité et l'intégrité des données tout au long des processus. • Apporter une expertise technique à l'équipe et aux projets.
Développeur Full-Stack (NodeJS / ReactJS) - Tours - H/F

Dans le cadre d’un plan stratégique, Le groupe engage un projet de refonte des outils d’OAV (Outils d’Aide à la Vente), dans le but de renforcer les processus omnicanaux de distribution, en couvrant une offre multi-produits (santé, prévoyance, épargne, retraite) et multi-cibles clients (Particuliers, Pros, TNS, Entreprises). L’éditeur FASST a été sélectionné pour bâtir cette plateforme. Le projet entre actuellement dans une phase de cadrage technique et d'intégration au sein de notre écosystème, notamment avec Salesforce, via des ateliers d’architecture. En tant que Développeur·se Full-Stack NodeJS / ReactJS, vous interviendrez sur la mise en œuvre technique de la plateforme FASST, avec les responsabilités suivantes : Développer les fonctionnalités de la plateforme FASST, avec une approche « ADOPT ». Concevoir et développer les services OAV nécessaires à la médiation avec Salesforce. Travailler en collaboration avec le Tech Lead, les Product Owners (Socle, Epargne/Retraite, Santé/Prévoyance) et les équipes de l’éditeur FASST Agir en tant qu’expert technique FASST. Participer à l’intégration de la plateforme dans l’écosystème SI, notamment avec Salesforce. Contribuer activement à l’adoption des méthodes agiles (SAFe, Scrum, etc.) dans une logique produit.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mise en demeure urssafil y a 4 heures
- Etat du marché - Avril 2025il y a 6 heures
- Liquidation en cours d'une SASU sans activitéil y a 7 heures
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a 17 heures
- Avoir des tickets restaurant ça vaut le coup ou pas ?il y a 18 heures
- ACRE : Questions multiples début d'activité/proratail y a 19 heures