Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 213 résultats.
Suivant
CDI
Freelance

Offre d'emploi
Kafka & EventStream Expert

Halian
Publiée le
Apache Kafka
Openshift

5 ans
Strasbourg, Grand Est

Suite à une récente mise à niveau vers la version 4.14 de la plateforme OpenShift Container Platform (OCP), une application présente un comportement inattendu. Nous recherchons en urgence un consultant possédant une expertise approfondie en Kafka et EventStream afin d’aider à diagnostiquer et résoudre ces problèmes. Responsabilités : Analyser et résoudre les dysfonctionnements de l’application après la migration vers OCP 4.14. Identifier et corriger les anomalies liées à Kafka/EventStream. Collaborer avec les équipes internes pour stabiliser l’application. Fournir des recommandations pour pérenniser l’intégration. Compétences requises : Expérience avérée avec les technologies Apache Kafka et EventStream. Solide compréhension des environnements conteneurisés, en particulier OCP 4.x. Capacité à travailler de manière autonome et à livrer des résultats rapidement. Excellentes compétences en communication et en documentation. Atouts : Expérience préalable avec des problèmes similaires post-migration. Familiarité avec les systèmes de messagerie de niveau entreprise.

Freelance

Mission freelance
DEV JAVA/KAFKA

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Kafka
Argo CD
Artifactory

1 an
100-390 €
Paris, France

Contexte : Vous intégrerez l'équipe Marketing Digital, dont la mission est de développer et de mettre à disposition des des différentes filiales des solutions communautaires innovantes pour répondre aux besoins marketing en constante évolution. Au sein de cette équipe, vous rejoindrez la Squad Marketing 360, une équipe dynamique d'une dizaine de personnes, chargée de l'implémentation d'une Customer Data Platform (CDP) - une solution SAAS de pointe - pour la mise en œuvre de parcours marketing multi-canaux personnalisés et performants. Les principaux domaines d'intervention de cette équipe comprennent : La mise en place de la solution SAAS (conception des solutions d'authentification et d'habilitations, sécurisation des flux de données, élaboration de processus de tests rigoureux et de déploiement agile) L'intégration de la CDP avec divers canaux de communication (push notifications, personnalisation des applications bancaires, optimisation des achats média, à terme, intégration des canaux email, SMS et l'interaction avec les conseillers en agence) L'équipe travaille en étroite collaboration avec l'équipe DataHub, responsable de l'alimentation de la plateforme en données et du pilotage de la performance des parcours marketing. Notre équipe adopte les méthodologies Agile et Scrum, favorisant ainsi une approche itérative et collaborative dans la réalisation de nos projets. Vous serez impliqué(e) dans un projet à fort impact, avec une orientation claire sur le retour sur investissement (ROI). Ce projet ambitieux vise à transformer notre approche du marketing digital, en optimisant nos interactions avec les clients et en maximisant l'efficacité de nos campagnes. Tâches : Tout au long du Cycle de vie Produit, vous intervenez sur l’analyse, la conception, le développement / intégration, les tests des solutions nécessaires au développement et au bon fonctionnement des produits de l’équipe agile en respectant les normes, procédures et les ambitions de l’entreprise ( TTM, UX, ROI, Qualité Fisrt ) en étant force de proposition technique et/ou fonctionnel. Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements

CDI

Offre d'emploi
Dév Java / Kafka (anglais)

AVALIANCE
Publiée le
Apache Kafka
Architecture
Java

50k-65k €
Paris, France

Contexte : renfort, en intervention sur un programme dans le domaine des paiements ; Compétences techniques requises (at least) : Expertise dans le développement backend Java ; Expertise Kafka ; Anglais : obligatoires / niveau courant écrit et oral demandé : échanges en anglais au quotidien avec des équipes externes notamment les Banques en Espagne, Italie, Allemagne... (les échanges sont en français au sein de l'équipe) ; Very 'Nice to have" : Compétences techniques qui feront la différence (en plus de Java et Kafka) : architectures hautement distribuées, résilience, scalabilité, haute disponibilité... ; expérience dans l'Agilité ; expérience bancaire (idéalement dans les paiements mais ce point n'est pas obligatoire) ; Une expérience dans le settlement serait un vrai plus. Soft skills (at least) : autonomie, rigueur, esprit d'équipe, très bonne communication, bonnes capacités rédactionnelles, reporting adapté... ;

Freelance

Mission freelance
Fullstack java angular kafka

Freelance.com
Publiée le
Angular
Apache Kafka
CI/CD

1 an
500-580 €
Maisons-Alfort, Île-de-France

Dans le cadre d’un vaste programme de modernisation de son Système d’Information, mon client initie une refonte complète basée sur le Core Banking System nouvelle génération avec l’objectif de remplacer les solutions actuelles et de décommissionner le site central. Vos missions: Participer à la mise en œuvre de la nouvelle solution avec le PO, les BA, les équipes IT et les directions métiers. Contribuer activement à toutes les cérémonies Agile de l’équipe. Concevoir et développer des applications robustes et scalables. Intégrer et exploiter des flux Kafka dans une architecture orientée événements (EDA). Collaborer étroitement avec les équipes métier pour répondre aux besoins fonctionnels. Garantir la qualité, la performance et la maintenabilité des livrables.

Freelance

Mission freelance
  Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j

BI SOLUTIONS
Publiée le
Big Data
PySpark

2 ans
400-550 €
Île-de-France, France

Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j Référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solution Big Data, ainsi que le pilotage technique de projets. étude et prise en compte des besoins de traitement de la data, gestion des priorités et de la cohérence des besoins, choix des outils et solutions conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka - Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, - Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique - Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … - Bonnes compétences en mathématiques et statistiques - Connaissances monétiques 550 e par j

Freelance
CDI

Offre d'emploi
Devops Senior KAFKA (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 ans
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Freelance

Mission freelance
Développeur Java/Vuejs/Kafka

ESENCA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

1 an
400-440 €
Lille, Hauts-de-France

Votre activité principale est de procéder aux développements dans un contexte de projet Agile. Vous participez à la définition de la vision technique des produits. Pour cela, vous vous appuyez sur votre compréhension des problématiques fonctionnelles et votre expertise technique. Vous élaborez la conception et les spécifications techniques des produits, vous trouvez des solutions permettant d’atteindre les objectifs fixés en équipe et vous évaluez la charge de développement. Vous êtes Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, “Global ready”, “tirs de performances”, “suivi de la perf”). Vous pilotez l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Vous participez à l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Au sein d’une équipe de développeurs de talent, vous participez à l’amélioration continue des process et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). Vous assurez une documentation complète des développements et des configurations au sein du référentiel documentaire. Vous participez activement au RUN / analyse de problèmes en Production et vous êtes garant des SLO

Freelance

Mission freelance
Kafka Architect (H/F)

STHREE SAS pour HUXLEY
Publiée le

36 mois
600-675 €
Puteaux, Île-de-France

Contexte Mon client est une entreprise leader dans le domaine des transactions électroniques et des solutions de paiement. Dans le cadre d'une initiative de transformation stratégique, il met en place un cluster Apache Kafka haute performance destiné à devenir la colonne vertébrale de notre future architecture orientée événements et de streaming de données. Leurs plateformes sont hébergées sur une infrastructure cloud privée/interne, où la sécurité, la fiabilité et la performance sont essentielles. Nous recherchons un Expert Kafka / Architecte Kafka pour concevoir, déployer et garantir l'excellence opérationnelle de cette infrastructure Kafka - tout en accompagnant les équipes internes par le partage de connaissances. Description Vous serez responsable de la mise en œuvre et de la gestion de bout en bout d'un cluster Kafka adapté aux besoins d'une plateforme transactionnelle critique à haute disponibilité. Vous jouerez également un rôle clé dans le transfert de connaissances et de bonnes pratiques auprès des équipes internes. Responsabilités principales * Architecture & Conception Concevoir et mettre en œuvre un cluster Kafka sécurisé, évolutif et hautement disponible Définir les stratégies de dimensionnement, de partitionnement et de réplication appropriées Intégrer Kafka dans l'environnement cloud privé et notre écosystème interne * Déploiement & Opérations Déployer des clusters Kafka dans un environnement de production basé sur Red Hat Linux Mettre en place une stack complète d'observabilité (métriques, logs, traçabilité - Prometheus, Grafana, etc.) Implémenter des mécanismes d'alerte, de vérification de l'état de santé et de reprise après sinistre * Performance & Stabilité Optimiser les composants Kafka pour un débit élevé et une faible latence Gérer et ajuster les producteurs/consommateurs, brokers et zookeeper/KRaft Diagnostiquer et résoudre de manière proactive les goulets d'étranglement ou les problèmes opérationnels * Sécurité & Conformité Configurer l'authentification (SSL/SASL), l'autorisation (ACLs) et le chiffrement Veiller à ce que les données et l'infrastructure soient conformes aux réglementations internes et sectorielles * Partage de connaissances Former et accompagner les équipes internes DevOps et applicatives Fournir de la documentation, des guides opérationnels et les meilleures pratiques Kafka

Freelance

Mission freelance
Developpeur fullstack JAVA REACTOR

HAYS France
Publiée le
Apache Kafka
Java
Reactor

3 ans
100-400 €
Lille, Hauts-de-France

Mission Développer et faire évoluer des api back Java Reactif Spring + Kafka Participer à l'élaboration des apis back Nest Participer au maintient de fronts VueJs Aptitudes Force de proposition Rigueur Ouverture d’esprit Communicant Compétences Java Reactif Spring Kafka VueJs Contrainte forte du projetContexte international Le livrable est - Compétences techniques Java Reactor - Expert - Impératif Kafka - Confirmé - Important Vue - Confirmé - Important Nest - Confirmé - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif)

Freelance

Mission freelance
BUSINESS ANALYST

HAYS France
Publiée le
Apache Kafka
API
JIRA

3 ans
Lille, Hauts-de-France

Dans le cadre d’un projet stratégique lié à l’optimisation des parcours de vente et de gestion du panier, nous recherchons un Business Analyst confirmé pour intervenir sur des sujets transverses. Expérience requise : minimum 5 ans sur un poste similaire. Objectifs de la mission : Cadrage des évolutions fonctionnelles autour des modules Vente et Panier Recueil des besoins auprès des interlocuteurs métier Rédaction et présentation des User Stories aux équipes de développement Participation active aux rituels Agile Une connaissance des API (via Postman) et des environnements de type Kafka est un plus apprécié.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps H/F

HIGHTEAM
Publiée le
Apache Kafka

3 ans
Île-de-France, France

Nous recherchons un(e) Ingénieur DevOps pour l'un de nos clients grand compte. Mission : 1. La mise en place d'une nouvelle architecture sur notre solution cloud interne. 2. L'assistance et le support avec le développement pour la montée de version du progiciel utilisé (Pega). 3. La mise en place des pipelines CI/CD afin d'automatiser le processus de montée de version. 4. La mise en place d'un cluster Elasticsearch. 5. L'externalisation de Hazelcast et Kafka, actuellement intégrés dans l'outil. Expertises : Ecosystème ELK (Elasticsearch, Logstash, Kibana). DevOps et en gestion des infrastructures cloud. Outils CI/CD (Jenkins, GitLab CI, etc.). Conteneurs (Docker, Kubernetes). Scripting (Bash). Outils de gestion de configuration (Ansible, Terraform).

Freelance

Mission freelance
Développeur Full Stack (Java Reactor / VueJS / Kafka / NestJS) H/F

SELFING
Publiée le
Apache Kafka
Java
NestJS

24 mois
300-350 €
Ronchin, Hauts-de-France

Au sein de notre siège social, nous recherchons, pour le compte de notre partenaire, leader mondial dans le secteur du commerce, un Développeur Full Stack (Java Reactor / VueJS / Kafka / NestJS) H/F La mission est basée sur le site de Ronchin (59). 2 jours de télétravail. Vous intégrerez une équipe dynamique composée d’un tech lead , de 2 développeurs , d’un PM et d’un designer , pour contribuer à la création et à l’évolution d’une plateforme internationale de services . Vos missions principales seront : Développer et faire évoluer des APIs back-end en Java Réactif (Spring) . Intégrer et maintenir des flux Kafka . Participer à l’élaboration d’ APIs NestJS . Maintenir et améliorer les interfaces Vue.js .

Freelance
CDI

Offre d'emploi
Développeur Kotlin Full Stack / Trading FX

OMICRONE
Publiée le
Apache Kafka
Kotlin
Kubernetes

1 an
40k-45k €
400-470 €
Île-de-France, France

🚀 Mission longue – Développeur Kotlin Full Stack / Trading FX 🚀 Nous recherchons un Développeur Full Stack Kotlin pour intervenir sur la plateforme intranet de trading électronique Forex (FX) , au sein d’un environnement exigeant et collaboratif 🎯 Vos missions principales : Rédaction de spécifications techniques et rétro-documentation Développement d’évolutions et maintenance de la plateforme Tests, recette, livraison et mise en production Support utilisateurs niveau 2 & 3 Collaboration transverse avec les équipes MOA, MOE, Support, DBA, Production, Réseaux… 🛠️ Stack technique : Kotlin (solide expertise attendue) Spring Boot, Angular, Kafka, Kubernetes Connaissance de Hazelcast et gRPC appréciée 💡 Une expérience en Capital Markets / produits de change (Forex) est un atout majeur. 📅 Disponibilité : ASAP

Freelance
CDI
CDD

Offre d'emploi
Consultant Data Collect & Transformation – Elastic Stack

AS INTERNATIONAL
Publiée le
Apache Kafka
Java
Python

3 ans
Île-de-France, France

Dans le cadre du déploiement de son SOC et de la collecte centralisée des logs sécurité de ses entités métiers, notre client recherche un consultant expérimenté en ingénierie Data Collect et Data Transformation . La mission s’articulera autour de la mise en place, du déploiement et du maintien d’un puits de données sécurité basé sur l’Elastic Stack, afin de permettre la corrélation d’événements et la mise en place d’alerting sur des patterns de sécurité. Missions principales : Mise en place et définition des mécanismes de collecte des données. Conception des patterns d’architectures de la collecte. Déploiement des dispositifs sur l’infrastructure Groupe et dans les filiales à l’international. Définition et mise en œuvre d’une stratégie de collecte uniforme et standardisée. Mise en place de pipelines d’enrichissement des données. Maintien en condition opérationnelle de la plateforme et des agents de collecte. Mise en place des processus d’onboarding de nouvelles sources de logs et d’assets. Support et conseil aux entités utilisatrices. Maintien et contrôle de la donnée collectée (exhaustivité et qualité).

Offre premium
CDI
Freelance

Offre d'emploi
Architecte logiciel C++ Qt (F/H)

INFOGENE
Publiée le
Apache Kafka
C/C++
Microservices

6 mois
Courbevoie, Île-de-France

Dans le cadre d’un projet de transformation reposant sur une architecture en microservices nous recherchons un architecte logiciel C++ expérimenté, capable de structurer le code, d’implémenter une architecture robuste et de collaborer avec nos équipes afin de poser les bases d’un développement pérenne. Objectif du Poste : Concevoir, définir et superviser les architectures applicatives pour différents périmètres, en assurant la cohérence technique, la scalabilité et la maintenabilité des solutions. Objectifs principaux : Mise en place d'une architecture moderne et performante orientée microservices. Application des meilleures pratiques pour organiser, structurer et industrialiser le code en C++. Utilisation et intégration d’un ensemble d’outils technologiques, notamment Conan, CMake, Qt, et modélisation avec ArchiMate, pour répondre aux attentes des utilisateurs et garantir la maintenabilité du logiciel. Architecture logicielle : Conception et modélisation d’architectures orientées microservices. Familiarité avec des protocoles de communication interservices (par exemple : gRPC, REST, etc.). Solides connaissances des pratiques de découplage et modularisation. Outillage : Conan : gestionnaire de dépendances pour faciliter le partage et le contrôle des bibliothèques externes. CMake : automatisation des scripts de configuration et de compilation du projet. ArchiMate : méthodes formalisées et outils pour la modélisation et la documentation d’architectures techniques et fonctionnelles. OS : maitrise de Linux, Unix au minimum Qualité & maintenabilité : Sensibilité particulière à la maintenabilité, scalabilité et robustesse des systèmes. Pratique des tests unitaires et d'intégration.

Freelance

Mission freelance
Architecte logiciel technique H/F

HAYS France
Publiée le
Apache Kafka
GED (Gestion Électronique des Documents)
Keycloak

6 mois
560-750 €
Nantes, Pays de la Loire

Nous recherchons un Architecte Applicatif expérimenté pour accompagner notre client dans la conception et la mise en place d’architectures robustes, sécurisées et performantes. Vous interviendrez sur des projets stratégiques liés à la dématérialisation, la facturation électronique et la numérisation de documents. Votre rôle sera de définir les architectures techniques, valider les choix technologiques et garantir la conformité des environnements. Vous travaillerez en étroite collaboration avec des équipes pluridisciplinaires (développeurs, experts infra, chefs de projet) dans un contexte agile. Les missions incluent la conception d’architectures from scratch, la mise en place de plans de remédiation, la validation des projets SRE et la conformité des environnements Kubernetes.

Suivant
213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous