Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data engineer Kafka OPS
Contexte de la mission Nous recherchons un développeur Kafka hautement qualifié, avec une solide expérience en ELK, pour contribuer au développement et à l’amélioration de notre produit d’observabilité. Ce rôle dynamique vous permettra de participer activement au support, à la maintenance et à l’amélioration de notre écosystème Kafka sur plusieurs environnements, tout en garantissant une intégration fluide et une efficacité optimale sur les différentes plateformes. Objectifs clés et livrables Nous recherchons un candidat à l’aise dans un environnement de production, prêt à relever des défis techniques complexes. Vous devez être capable de : Résoudre des problèmes techniques approfondis (connexion aux machines, analyses réseau, débogage des couches TCP et threads). Identifier les ressources adéquates pour résoudre efficacement les problèmes. Vos principales responsabilités incluront : Supporter, maintenir et améliorer l’écosystème Kafka existant sur différents environnements ( QA / Préproduction / Production, MultiCloud ). Maintenir et optimiser les composants de l’écosystème Kafka ( KStream, KConnect, MirrorMaker , etc.). Accompagner les développeurs dans l’implémentation des APIs Kafka pour une intégration fluide. Réaliser des tableaux de bord avec Grafana et Kibana , en mettant l’accent sur les métriques, logs et traces. Proposer et mettre en œuvre des améliorations architecturales pour optimiser les performances du système. Développer des guidelines, documentations et bonnes pratiques pour l’équipe et les parties prenantes. Compétences requises Compétences techniquesNiveau de maîtriseNode.js Confirmé Ansible Expert AWS Confirmé Java Expert Docker Confirmé Kafka Expert Exigences linguistiques LangueNiveau de maîtriseAnglais Courant Pourquoi nous rejoindre ? Ce rôle offre une opportunité unique de travailler sur des technologies de pointe dans un environnement de production, où vous aurez un impact direct sur l’évolutivité et l’efficacité des systèmes critiques. Vous rejoindrez une équipe collaborative et participerez à des projets stimulants qui repoussent les limites des infrastructures modernes et des solutions d’observabilité.
Mission freelance
Concepteur-développeur JAVA/Spring Kafka /fa
Concepteur-développeur JAVA/Spring Kafka client Banque basé à Paris Gare de Lyon, un Concepteur-développeur JAVA/Spring - Confirmé avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Réécrire les API en tenant compte des nouvelle normes de développement Participe à compléter et appliquer les règles de Clean code et les bonnes pratiques de la qualité au sein de l'équipe de développement Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes experte Mise en place la configuration Kafka (Topic, Schéma Registry, ACL, ...) Rédaction et gestion de la documentation technique. Assurer le suivi de la stabilité de la production et, en cas d’incident, participer activement à sa résolution pour garantir la continuité et la stabilité de l’environnement de production. Principaux livrables : API développé et testé Solides connaissances en java Excellente maîtrise de l’écosystème Spring Framework. Bonne connaissance de l’architecture Kafka (kafka client et kafka clsuter). Connaissance approfondie de l’architecture événementielle. Maîtrise des outils et pratiques de développement logiciel Capacité à suivre l’ensemble de la procédure de développement logiciel, incluant le développement, les tests et le déploiement en production. Solide connaissance de la gestion et de l’orchestration conteneurs avec Kubernetes. Compétences requises : java, spring/spring boot microservices kafka Kubernetes helm charts junit Mockito Git, Gitlab CI Capacité à tenir les engagements en termes de qualité et délais Etre rigoureux: responsable de vos réalisations et la qualité de votre production. Autonomie, prise d’initiative, et sens du travail en équipe.
Mission freelance
POT8134-Un Développeur Kafka Java sur Paris
Almatek recherche pour l'un de ses clients Un Développeur Kafka Java sur Paris. A partir de 5 ans d’expérience Environnement obligatoire : Java, REST, Spring Boot, Kafka, Docker, Kubernetes Mission longue démarrage ASAP Almatek recherche pour l'un de ses clients Un Développeur Kafka Java sur Paris. A partir de 5 ans d’expérience Environnement obligatoire : Java, REST, Spring Boot, Kafka, Docker, Kubernetes Mission longue démarrage ASAP Almatek recherche pour l'un de ses clients Un Développeur Kafka Java sur Paris. A partir de 5 ans d’expérience Environnement obligatoire : Java, REST, Spring Boot, Kafka, Docker, Kubernetes Mission longue démarrage ASAP
Offre d'emploi
Développeur Backend Java Spring / Kafka (CDI)
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Développeur Backend Java Spring / Kafka. Le poste : Vous mettez en place les socles techniques multi-projets adaptées aux problématiques rencontrées. Vous participez à l’analyse et la rédaction des spécifications techniques. Vous créez des sites internet et des applications métiers pour de nouveaux projets ou développez de nouvelles fonctionnalités. Vous réalisez les tests (unitaires, non régression…). Vous assurez la mise en production et la maintenance corrective des applications crées. Vous êtes le garant de la qualité et l’optimisation du code afin de répondre aux exigences de performances
Offre d'emploi
Expert/Architecte Kafka/MSK/ELK
Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.
Offre d'emploi
Architecte - 4/7 ans expérience, double expertise SI et métier (assurance vie, retraite et épargne)
Accompagner la transformation digitale d’une organisation opérant dans le secteur de l’assurance, avec un accent particulier sur les enjeux financiers, règlementaires, et RH. Contexte et Environnement Projet : Le projet s’intègre dans le cadre d’une stratégie d’entreprise visant à moderniser les processus, aligner les systèmes d’information (SI) avec les exigences métiers, et assurer la conformité règlementaire. L’Architecte Projet intervient depuis les phases d’études d’opportunité jusqu’à la mise en production, en produisant des livrables critiques pour la gouvernance de l’architecture SI. Piloter les études et exigences d’architecture dans un environnement complexe. Garantir la cohérence et la durabilité des choix technologiques. Accompagner des projets critiques dans les domaines de la finance, de l’assurance, et des processus RH. L’environnement technologique est complexe et varié : Technologies utilisées : systèmes On-Premise, Cloud (AWS), solutions SaaS, progiciels, et développements internes. Parc applicatif : inclut des systèmes mainframe legacy, des solutions modernes et des référentiels d’architecture SI (VISTA/Lean IX, Data Galaxy). Contexte métier : assurance vie, épargne retraite, processus RH, et normes règlementaires telles que Solvency II. Défis spécifiques : Structuration et circulation des données dans un environnement hybride. Prise en compte de la vision 360 des clients et distributeurs, intégrant des dimensions décisionnelles et opérationnelles. Modernisation des systèmes legacy et migration vers le cloud. Objectifs et livrables Livrables Attendues : Diagnostic Express d’Architecture (DEX) - Évaluation rapide des besoins et préconisations., Présentation hebdomadaire en comité DSI. Dossier d’Architecture Fonctionnelle (DAF) - Analyse détaillée des états existants et futurs, impacts des scénarios, et trajectoires cibles. Les livrables couvrent plusieurs couches : Fonctionnelle : flux métiers, fonctions, principes directeurs. Macro-applicative : composants et socles applicatifs. Macro-solution : intégration de solutions complexes. Suivi et capitalisation : Les travaux sont intégrés dans des outils référentiels (VISTA, Data Galaxy) pour assurer leur traçabilité et réutilisation.
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Architecte Technique Java-Spark - Sénior
Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe
Offre d'emploi
Développeur .NET H/F
Si tu penses que l’on parle d’internet, ce qui suit ne t’es pas destiné Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi ! Au sein d’acteurs majeurs des secteurs du E-Commerce, Retail ou bancaire, tu participeras à des projets d’envergure, de refonte, de migration et / ou à des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Architecte Technique Java-Spark - Sénior
Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe
Mission freelance
Développeur Node Angular AWS (Mission longue)
Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Mission de développeur Ruby on Rails
Notre client est une plateforme de mise en relation très réputée. En tant que développeur Ruby on Rails, vous rejoindrez une équipe agile avec une autonomie complète sur un large périmètre du produit du client. Aux côtés d'autres ingénieurs, d'un Product Manager et d'un Product Designer, vous aurez la responsabilité de prendre des décisions techniques pour maintenir et améliorer un produit SaaS complexe, avec un impact considérable sur des millions d'utilisateurs à travers l'Europe. Principales missions et objectifs : Concevoir, développer et maintenir des fonctionnalités sur une stack moderne incluant des microservices en Go et Ruby, un monolithe Ruby on Rails, Kubernetes, des API gRPC, Kafka, ElasticSearch, et des bases de données PostgreSQL et MySQL. Contribuer à la conception produit, aux priorités et aux contraintes au sein d’une équipe produit autonome. Participer aux décisions architecturales et aux améliorations des outils pour notre stack technique et notre migration vers une architecture en microservices. Participer aux discussions sur les meilleures pratiques et aux améliorations des processus au sein du chapitre Backend, notre communauté interne d’ingénieurs backend. Écrire des tests automatisés et déployer en production plusieurs fois par jour dans une culture DevOps de déploiement continu. Surveiller et résoudre les problèmes de production liés au périmètre fonctionnel et technique de votre équipe. Participer aux revues de code et aux sessions de pair programming. Apprendre et enseigner grâce à des temps dédiés au partage technique et au mentorat.
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Mission freelance
Développeur .Net x2
👉 Contexte : Nous recherchons actuellement deux développeurs .net expérimentés pour contribuer à un projet de développement chez notre client. Les aspects techniques attendus sont détaillés ci-dessous : Le profil idéal possède une solide expertise en développement .NET, notamment avec les technologies suivantes : .NET 7.0 Git JSON Microsoft SQL Server Azure DevOps JIRA API REST API MuleSoft (Anypoint) RabbitMQ Kafka JAVA Transact-SQL Confluence Mission uniquement pour des consultants indépendant, pas de sous-traitance d'ESN Cette mission n'est pas possible en télétravail complet
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.